La app de IA Haotian impulsa estafas románticas con intercambios de rostros

Una app china de IA llamada Haotian ha generado millones vendiendo tecnología de intercambio de rostros ultra realista en Telegram, principalmente a estafadores. La herramienta permite intercambios casi perfectos durante chats de vídeo en vivo e se integra con apps como WhatsApp y WeChat. Su canal principal desapareció tras consultas que revelaron su uso en operaciones de fraude del sudeste asiático.

La aplicación de inteligencia artificial Haotian, desarrollada en China, se especializa en capacidades avanzadas de intercambio de rostros que han resultado altamente efectivas para fines engañosos. Según análisis, la app permite a los usuarios crear intercambios de rostros «casi perfectos» en conversaciones de vídeo en tiempo real, generando a sus creadores millones de dólares mediante ventas en la plataforma Telegram.

La tecnología de Haotian destaca por su versatilidad y facilidad de integración con servicios de mensajería populares como WhatsApp y WeChat. Los usuarios pueden ajustar hasta 50 configuraciones diferentes, incluidas modificaciones al tamaño de los pómulos y la posición de los ojos, para replicar de cerca la apariencia de la persona que pretenden impersonar. Este nivel de personalización la convierte en una herramienta potente para diversas aplicaciones, pero investigaciones han resaltado su lado más oscuro.

Investigadores y revisiones independientes, incluidas las de WIRED, indican que Haotian se ha promocionado activamente a personas implicadas en estafas de «pig butchering», un tipo de fraude romántico común en interacciones en línea. Estas operaciones, en su mayoría en el sudeste asiático, utilizan la app para generar confianza falsa con las víctimas antes de extraerles dinero, a menudo mediante esquemas de criptomonedas. La promoción de la app en redes de fraude pone de manifiesto los riesgos crecientes de las tecnologías deepfake accesibles.

De forma notable, el canal principal de Telegram de Haotian desapareció poco después de las consultas sobre sus vínculos con estafadores, lo que sugiere un intento de eludir el escrutinio. Aunque la plataforma ofrece funciones potentes para usos creativos legítimos, sus conexiones documentadas con actividades delictivas generan preocupación por el uso ético de la IA en las comunicaciones digitales cotidianas. Este caso ilustra los desafíos para regular herramientas que difuminan la línea entre realidad y engaño en el entorno en línea.

Artículos relacionados

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagen generada por IA

La red social de IA Moltbook experimenta un rápido crecimiento en medio de preocupaciones por seguridad

Reportado por IA Imagen generada por IA

Lanzada a finales de enero, Moltbook se ha convertido rápidamente en un centro para que agentes de IA interactúen de manera autónoma, atrayendo a 1,5 millones de usuarios a principios de febrero. Aunque los bots en la plataforma han desarrollado comunidades e incluso una religión parodia, los expertos destacan riesgos de seguridad significativos, incluidos credenciales no seguras. Los observadores debaten si estos comportamientos señalan una verdadera emergencia de IA o mera imitación de patrones humanos.

Algunos usuarios de chatbots de IA de Google y OpenAI están generando imágenes deepfake que alteran fotos de mujeres completamente vestidas para mostrarlas en bikinis. Estas modificaciones suelen realizarse sin el consentimiento de las mujeres, e instrucciones para el proceso se comparten entre usuarios. La actividad resalta riesgos en herramientas de IA generativa.

Reportado por IA

Un nuevo informe muestra que las principales empresas tecnológicas chinas dominan el mercado de IA para consumidores. Doubao, propiedad de ByteDance, sigue siendo la app de IA para consumidores líder en el país, con el chatbot homónimo de DeepSeek en segundo lugar.

Un asistente de IA de código abierto originalmente llamado Clawdbot ha ganado popularidad rápidamente antes de someterse a dos cambios de nombre rápidos hacia OpenClaw debido a preocupaciones por marcas registradas y disrupciones en línea. Creado por el desarrollador Peter Steinberger, la herramienta se integra en apps de mensajería para automatizar tareas y recordar conversaciones. A pesar de problemas de seguridad y estafas, sigue atrayendo a entusiastas.

Reportado por IA

En 2025, las ciberamenazas en Filipinas se mantuvieron en métodos tradicionales como el phishing y el ransomware, sin que emergieran nuevas formas. Sin embargo, la inteligencia artificial amplificó el volumen y la escala de estos ataques, lo que llevó a una 'industrialización del cibercrimen'. Informes de varias firmas de ciberseguridad destacan aumentos en la velocidad, escala y frecuencia de los incidentes.

Tras informes de Grok AI generando imágenes sexualizadas, incluido desnudar digitalmente a mujeres, hombres y menores, varios gobiernos actúan contra el chatbot xAI en plataforma X, entre preocupaciones éticas y de seguridad continuas.

Reportado por IA

Google ha presentado Nano Banana Pro, un modelo mejorado de generación de imágenes con IA impulsado por Gemini 3 Pro, que ofrece mayor precisión y capacidades de edición. La herramienta está disponible ahora a nivel global en la aplicación Gemini, aunque con límites de uso para usuarios gratuitos. También incluye funciones mejoradas para detectar contenido generado por IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar