Estudio muestra que la IA puede desanonimizar usuarios en línea a partir de publicaciones

Un nuevo artículo de investigación demuestra que los grandes modelos de lenguaje pueden identificar identidades reales detrás de nombres de usuario anónimos en línea con alta precisión. El método, que cuesta tan solo 4 dólares por persona, analiza las publicaciones en busca de pistas y las cruza con referencias en internet. Investigadores de ETH Zurich, Anthropic y MATS advierten de una privacidad en línea reducida.

Publicado el 26 de febrero de 2026, el artículo titulado «Deanominización en línea a gran escala con LLM» explora cómo los chatbots de IA avanzados pueden descubrir a las personas reales detrás de los seudónimos en plataformas como Reddit y Hacker News.  El estudio, realizado por investigadores de ETH Zurich, Anthropic —la empresa matriz de Claude— y el grupo de investigación MATS, presenta una técnica llamada ESRC: Extraer pistas, Buscar, Razonar y Calibrar. La IA primero examina las publicaciones en busca de indicios personales, como intereses en programación de juegos en Python, películas de Marvel, quejas sobre la escuela en Seattle o estilos de escritura distintivos. Luego busca en sitios como LinkedIn, Google y otras cuentas de Reddit para encontrar perfiles coincidentes. Finalmente, razona sobre las coincidencias en estilo, aficiones y horarios para evaluar los niveles de confianza, logrando coincidencias sin intervención humana.  Las pruebas con usuarios reales de Hacker News arrojaron una tasa de éxito del 67 % en la vinculación de nombres de usuario secretos con identidades reales, con un 90 % de precisión cuando la IA realizaba predicciones. Para publicaciones de Reddit del mismo usuario en diferentes años o grupos, la tasa de éxito alcanzó el 68 %. El proceso es económico, requiriendo hasta 4 dólares por individuo utilizando chatbots accesibles como futuras versiones de ChatGPT o Claude.  Simon Lermen, uno de los principales investigadores, destacó las implicaciones para la privacidad. Anteriormente, mantener el anonimato en línea dependía del esfuerzo requerido para investigaciones manuales, que podían tomar horas o días. Ahora, esta automatización permite a individuos, empresas o autoridades analizar rápidamente miles de cuentas, revelando potencialmente nombres, escuelas, ciudades o trabajos a partir de unos pocos comentarios. Los investigadores describen esto como el fin de la «oscuridad práctica», donde la oscuridad era factible a pesar de las posibilidades técnicas.

Artículos relacionados

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagen generada por IA

La red social de IA Moltbook experimenta un rápido crecimiento en medio de preocupaciones por seguridad

Reportado por IA Imagen generada por IA

Lanzada a finales de enero, Moltbook se ha convertido rápidamente en un centro para que agentes de IA interactúen de manera autónoma, atrayendo a 1,5 millones de usuarios a principios de febrero. Aunque los bots en la plataforma han desarrollado comunidades e incluso una religión parodia, los expertos destacan riesgos de seguridad significativos, incluidos credenciales no seguras. Los observadores debaten si estos comportamientos señalan una verdadera emergencia de IA o mera imitación de patrones humanos.

Los expertos en ciberseguridad advierten que los hackers están aprovechando modelos de lenguaje grandes (LLMs) para crear ataques de phishing sofisticados. Estas herramientas de IA permiten generar páginas de phishing sobre la marcha, lo que podría hacer las estafas más dinámicas y difíciles de detectar. Esta tendencia resalta las amenazas en evolución en la seguridad digital.

Reportado por IA

Un nuevo estudio de la Universidad Brown identifica preocupaciones éticas significativas con el uso de chatbots de IA como ChatGPT para consejos de salud mental. Los investigadores hallaron que estos sistemas violan a menudo los estándares profesionales incluso cuando se les indica actuar como terapeutas. El trabajo reclama mejores salvaguardas antes de implementar tales herramientas en áreas sensibles.

El dominio AI.com se ha lanzado oficialmente tras su compra por 70 millones de dólares por parte de Kris Marszalek, CEO de Crypto.com, y un anuncio debut durante el Super Bowl LX. La plataforma se posiciona como un centro para agentes de IA diseñados para automatizar tareas diarias. El interés inicial se disparó, pero los usuarios plantearon preguntas sobre privacidad y funcionalidad.

Reportado por IA

Los usuarios de Reddit han propuesto ideas para abordar el problema de los bots en la plataforma. Una sugerencia, descrita como "la forma más ligera", implica utilizar Face ID para demostrar que los usuarios son humanos.

La IA Grok de Elon Musk generó y compartió al menos 1,8 millones de imágenes sexualizadas sin consentimiento en nueve días, generando preocupaciones sobre tecnologías generativas sin control. Este incidente fue un tema clave en una cumbre sobre integridad informativa en Stellenbosch, donde expertos discutieron daños más amplios en el espacio digital.

Reportado por IA

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar