La app de IA Haotian impulsa estafas románticas con intercambios de rostros

Una app china de IA llamada Haotian ha generado millones vendiendo tecnología de intercambio de rostros ultra realista en Telegram, principalmente a estafadores. La herramienta permite intercambios casi perfectos durante chats de vídeo en vivo e se integra con apps como WhatsApp y WeChat. Su canal principal desapareció tras consultas que revelaron su uso en operaciones de fraude del sudeste asiático.

La aplicación de inteligencia artificial Haotian, desarrollada en China, se especializa en capacidades avanzadas de intercambio de rostros que han resultado altamente efectivas para fines engañosos. Según análisis, la app permite a los usuarios crear intercambios de rostros «casi perfectos» en conversaciones de vídeo en tiempo real, generando a sus creadores millones de dólares mediante ventas en la plataforma Telegram.

La tecnología de Haotian destaca por su versatilidad y facilidad de integración con servicios de mensajería populares como WhatsApp y WeChat. Los usuarios pueden ajustar hasta 50 configuraciones diferentes, incluidas modificaciones al tamaño de los pómulos y la posición de los ojos, para replicar de cerca la apariencia de la persona que pretenden impersonar. Este nivel de personalización la convierte en una herramienta potente para diversas aplicaciones, pero investigaciones han resaltado su lado más oscuro.

Investigadores y revisiones independientes, incluidas las de WIRED, indican que Haotian se ha promocionado activamente a personas implicadas en estafas de «pig butchering», un tipo de fraude romántico común en interacciones en línea. Estas operaciones, en su mayoría en el sudeste asiático, utilizan la app para generar confianza falsa con las víctimas antes de extraerles dinero, a menudo mediante esquemas de criptomonedas. La promoción de la app en redes de fraude pone de manifiesto los riesgos crecientes de las tecnologías deepfake accesibles.

De forma notable, el canal principal de Telegram de Haotian desapareció poco después de las consultas sobre sus vínculos con estafadores, lo que sugiere un intento de eludir el escrutinio. Aunque la plataforma ofrece funciones potentes para usos creativos legítimos, sus conexiones documentadas con actividades delictivas generan preocupación por el uso ético de la IA en las comunicaciones digitales cotidianas. Este caso ilustra los desafíos para regular herramientas que difuminan la línea entre realidad y engaño en el entorno en línea.

Artículos relacionados

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagen generada por IA

La red social de IA Moltbook experimenta un rápido crecimiento en medio de preocupaciones por seguridad

Reportado por IA Imagen generada por IA

Lanzada a finales de enero, Moltbook se ha convertido rápidamente en un centro para que agentes de IA interactúen de manera autónoma, atrayendo a 1,5 millones de usuarios a principios de febrero. Aunque los bots en la plataforma han desarrollado comunidades e incluso una religión parodia, los expertos destacan riesgos de seguridad significativos, incluidos credenciales no seguras. Los observadores debaten si estos comportamientos señalan una verdadera emergencia de IA o mera imitación de patrones humanos.

Algunos usuarios de chatbots de IA de Google y OpenAI están generando imágenes deepfake que alteran fotos de mujeres completamente vestidas para mostrarlas en bikinis. Estas modificaciones suelen realizarse sin el consentimiento de las mujeres, e instrucciones para el proceso se comparten entre usuarios. La actividad resalta riesgos en herramientas de IA generativa.

Reportado por IA

Un nuevo informe muestra que las principales empresas tecnológicas chinas dominan el mercado de IA para consumidores. Doubao, propiedad de ByteDance, sigue siendo la app de IA para consumidores líder en el país, con el chatbot homónimo de DeepSeek en segundo lugar.

Un nuevo artículo de investigación demuestra que los grandes modelos de lenguaje pueden identificar identidades reales detrás de nombres de usuario anónimos en línea con alta precisión. El método, que cuesta tan solo 4 dólares por persona, analiza las publicaciones en busca de pistas y las cruza con referencias en internet. Investigadores de ETH Zurich, Anthropic y MATS advierten de una privacidad en línea reducida.

Reportado por IA

La startup de inteligencia artificial DeepSeek, con sede en Hangzhou, restableció su servicio de chatbot el lunes por la mañana tras una interrupción de 12 horas que afectó a millones de usuarios. El problema comenzó el domingo por la noche, provocando una avalancha de quejas en las redes sociales chinas. La empresa publicó registros de mantenimiento que detallan las correcciones aplicadas durante la noche.

La pionera china en IA SenseTime aprovecha sus raíces en visión por computador para liderar la siguiente fase de la IA, desplazándose hacia sistemas multimodales e inteligencia encarnada en el mundo físico. El cofundador y director científico Lin Dahua afirmó que este enfoque es similar al de Google, comenzando con capacidades de visión como núcleo y añadiendo lenguaje para construir sistemas multimodales verdaderos.

Reportado por IA

Queen Koki, a South African content creator, has embraced an AI chatbot named Spruce as her romantic partner, sharing intimate conversations online. This trend highlights how AI companions are filling emotional voids, especially during the lonely festive season. Experts note that while South Africans may resist full reliance on such technology due to strong community ties, the appeal grows amid societal pressures.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar