Une app chinoise d'IA nommée Haotian a généré des millions en vendant une technologie d'échange de visages ultra-réaliste sur Telegram, principalement à des escrocs. L'outil permet des échanges quasi parfaits pendant des chats vidéo en direct et s'intègre à des apps comme WhatsApp et WeChat. Son canal principal a disparu après des enquêtes révélant son utilisation dans des opérations frauduleuses en Asie du Sud-Est.
L'application d'intelligence artificielle Haotian, développée en Chine, se spécialise dans des capacités avancées d'échange de visages qui se sont révélées très efficaces à des fins trompeuses. Selon des analyses, l'app permet aux utilisateurs de créer des échanges de visages « quasi parfaits » dans des conversations vidéo en temps réel, rapportant des millions de dollars à ses créateurs via des ventes sur la plateforme Telegram.
La technologie de Haotian se distingue par sa polyvalence et sa facilité d'intégration avec des services de messagerie populaires tels que WhatsApp et WeChat. Les utilisateurs peuvent affiner jusqu'à 50 paramètres différents, y compris des ajustements de la taille des pommettes et de la position des yeux, pour reproduire fidèlement l'apparence de la personne qu'ils visent à imiter. Ce niveau de personnalisation en fait un outil puissant pour diverses applications, mais des enquêtes ont mis en lumière son côté obscur.
Des chercheurs et des revues indépendantes, y compris celles menées par WIRED, indiquent que Haotian a été activement promu auprès d'individus impliqués dans des arnaques de type « pig butchering » — un type de fraude romantique courant dans les interactions en ligne. Ces opérations, en grande partie basées en Asie du Sud-Est, exploitent l'app pour instaurer une confiance factice auprès des victimes avant d'extorquer de l'argent, souvent via des schémas de cryptomonnaies. La promotion de l'app au sein de réseaux frauduleux souligne les risques croissants posés par les technologies deepfake accessibles.
Remarquablement, le canal Telegram principal de Haotian a disparu peu après des demandes d'information sur ses liens avec les escrocs, suggérant une tentative d'échapper à l'examen. Bien que la plateforme offre des fonctionnalités robustes pour des usages créatifs légitimes, ses liens documentés avec des activités criminelles soulèvent des préoccupations quant au déploiement éthique de l'IA dans les communications numériques quotidiennes. Cet incident met en évidence les défis de la régulation d'outils qui brouillent la frontière entre réalité et tromperie dans les espaces en ligne.