L'app IA Haotian alimente des arnaques romantiques avec des échanges de visages

Une app chinoise d'IA nommée Haotian a généré des millions en vendant une technologie d'échange de visages ultra-réaliste sur Telegram, principalement à des escrocs. L'outil permet des échanges quasi parfaits pendant des chats vidéo en direct et s'intègre à des apps comme WhatsApp et WeChat. Son canal principal a disparu après des enquêtes révélant son utilisation dans des opérations frauduleuses en Asie du Sud-Est.

L'application d'intelligence artificielle Haotian, développée en Chine, se spécialise dans des capacités avancées d'échange de visages qui se sont révélées très efficaces à des fins trompeuses. Selon des analyses, l'app permet aux utilisateurs de créer des échanges de visages « quasi parfaits » dans des conversations vidéo en temps réel, rapportant des millions de dollars à ses créateurs via des ventes sur la plateforme Telegram.

La technologie de Haotian se distingue par sa polyvalence et sa facilité d'intégration avec des services de messagerie populaires tels que WhatsApp et WeChat. Les utilisateurs peuvent affiner jusqu'à 50 paramètres différents, y compris des ajustements de la taille des pommettes et de la position des yeux, pour reproduire fidèlement l'apparence de la personne qu'ils visent à imiter. Ce niveau de personnalisation en fait un outil puissant pour diverses applications, mais des enquêtes ont mis en lumière son côté obscur.

Des chercheurs et des revues indépendantes, y compris celles menées par WIRED, indiquent que Haotian a été activement promu auprès d'individus impliqués dans des arnaques de type « pig butchering » — un type de fraude romantique courant dans les interactions en ligne. Ces opérations, en grande partie basées en Asie du Sud-Est, exploitent l'app pour instaurer une confiance factice auprès des victimes avant d'extorquer de l'argent, souvent via des schémas de cryptomonnaies. La promotion de l'app au sein de réseaux frauduleux souligne les risques croissants posés par les technologies deepfake accessibles.

Remarquablement, le canal Telegram principal de Haotian a disparu peu après des demandes d'information sur ses liens avec les escrocs, suggérant une tentative d'échapper à l'examen. Bien que la plateforme offre des fonctionnalités robustes pour des usages créatifs légitimes, ses liens documentés avec des activités criminelles soulèvent des préoccupations quant au déploiement éthique de l'IA dans les communications numériques quotidiennes. Cet incident met en évidence les défis de la régulation d'outils qui brouillent la frontière entre réalité et tromperie dans les espaces en ligne.

Articles connexes

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Image générée par IA

Le réseau social IA Moltbook connaît une croissance rapide au milieu des préoccupations de sécurité

Rapporté par l'IA Image générée par IA

Lancé fin janvier, Moltbook est rapidement devenu un hub pour les agents IA interagissant de manière autonome, attirant 1,5 million d'utilisateurs début février. Bien que les bots sur la plateforme aient développé des communautés et même une religion parodique, les experts soulignent des risques de sécurité importants, y compris des identifiants non sécurisés. Les observateurs débattent si ces comportements signalent une véritable émergence de l'IA ou une simple imitation de schémas humains.

Certains utilisateurs de chatbots d'IA de Google et OpenAI génèrent des images deepfake qui modifient des photos de femmes entièrement vêtues pour les montrer en bikini. Ces modifications se font souvent sans le consentement des femmes, et les instructions pour le processus sont partagées entre utilisateurs. Cette activité met en lumière les risques des outils d'IA générative.

Rapporté par l'IA

A new report shows major Chinese tech firms dominating the consumer AI market. ByteDance-owned Doubao remains the top consumer AI app in the country, with DeepSeek's namesake chatbot in second place.

Un assistant IA open-source initialement nommé Clawdbot a rapidement gagné en popularité avant de subir deux rebrandings rapides vers OpenClaw en raison de préoccupations de marques déposées et de perturbations en ligne. Créé par le développeur Peter Steinberger, l'outil s'intègre dans les applications de messagerie pour automatiser les tâches et se souvenir des conversations. Malgré des problèmes de sécurité et des arnaques, il continue d'attirer les passionnés.

Rapporté par l'IA

En 2025, les cybermenaces aux Philippines se sont limitées aux méthodes traditionnelles comme le phishing et les ransomwares, sans qu’apparaissent de nouvelles formes. Cependant, l’intelligence artificielle a amplifié le volume et l’échelle de ces attaques, menant à une « industrialisation de la cybercriminalité ». Les rapports de diverses firmes de cybersécurité soulignent des augmentations de vitesse, d’échelle et de fréquence des incidents.

Après des rapports sur Grok AI générant des images sexualisées —y compris en dénudant numériquement femmes, hommes et mineurs—, plusieurs gouvernements agissent contre le chatbot xAI sur la plateforme X, au milieu de préoccupations éthiques et de sécurité persistantes.

Rapporté par l'IA

Google a introduit Nano Banana Pro, un modèle amélioré de génération d'images par IA alimenté par Gemini 3 Pro, offrant une meilleure précision et des capacités d'édition. L'outil est désormais disponible dans le monde entier via l'application Gemini, bien que avec des limites d'utilisation pour les utilisateurs gratuits. Il inclut également des fonctionnalités améliorées pour détecter le contenu généré par IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser