Estudio muestra que la IA puede desanonimizar usuarios en línea a partir de publicaciones

Un nuevo artículo de investigación demuestra que los grandes modelos de lenguaje pueden identificar identidades reales detrás de nombres de usuario anónimos en línea con alta precisión. El método, que cuesta tan solo 4 dólares por persona, analiza las publicaciones en busca de pistas y las cruza con referencias en internet. Investigadores de ETH Zurich, Anthropic y MATS advierten de una privacidad en línea reducida.

Publicado el 26 de febrero de 2026, el artículo titulado «Deanominización en línea a gran escala con LLM» explora cómo los chatbots de IA avanzados pueden descubrir a las personas reales detrás de los seudónimos en plataformas como Reddit y Hacker News.  El estudio, realizado por investigadores de ETH Zurich, Anthropic —la empresa matriz de Claude— y el grupo de investigación MATS, presenta una técnica llamada ESRC: Extraer pistas, Buscar, Razonar y Calibrar. La IA primero examina las publicaciones en busca de indicios personales, como intereses en programación de juegos en Python, películas de Marvel, quejas sobre la escuela en Seattle o estilos de escritura distintivos. Luego busca en sitios como LinkedIn, Google y otras cuentas de Reddit para encontrar perfiles coincidentes. Finalmente, razona sobre las coincidencias en estilo, aficiones y horarios para evaluar los niveles de confianza, logrando coincidencias sin intervención humana.  Las pruebas con usuarios reales de Hacker News arrojaron una tasa de éxito del 67 % en la vinculación de nombres de usuario secretos con identidades reales, con un 90 % de precisión cuando la IA realizaba predicciones. Para publicaciones de Reddit del mismo usuario en diferentes años o grupos, la tasa de éxito alcanzó el 68 %. El proceso es económico, requiriendo hasta 4 dólares por individuo utilizando chatbots accesibles como futuras versiones de ChatGPT o Claude.  Simon Lermen, uno de los principales investigadores, destacó las implicaciones para la privacidad. Anteriormente, mantener el anonimato en línea dependía del esfuerzo requerido para investigaciones manuales, que podían tomar horas o días. Ahora, esta automatización permite a individuos, empresas o autoridades analizar rápidamente miles de cuentas, revelando potencialmente nombres, escuelas, ciudades o trabajos a partir de unos pocos comentarios. Los investigadores describen esto como el fin de la «oscuridad práctica», donde la oscuridad era factible a pesar de las posibilidades técnicas.

Artículos relacionados

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagen generada por IA

La red social de IA Moltbook experimenta un rápido crecimiento en medio de preocupaciones por seguridad

Reportado por IA Imagen generada por IA

Lanzada a finales de enero, Moltbook se ha convertido rápidamente en un centro para que agentes de IA interactúen de manera autónoma, atrayendo a 1,5 millones de usuarios a principios de febrero. Aunque los bots en la plataforma han desarrollado comunidades e incluso una religión parodia, los expertos destacan riesgos de seguridad significativos, incluidos credenciales no seguras. Los observadores debaten si estos comportamientos señalan una verdadera emergencia de IA o mera imitación de patrones humanos.

Un estudio de la Universidad de Cornell revela que herramientas de IA como ChatGPT han aumentado la producción de artículos de los investigadores hasta en un 50%, beneficiando especialmente a los hablantes no nativos de inglés. Sin embargo, este aumento en manuscritos pulidos está complicando las revisiones por pares y las decisiones de financiación, ya que muchos carecen de valor científico sustancial. Los hallazgos destacan un cambio en la dinámica de la investigación global y llaman a políticas actualizadas sobre el uso de IA en la academia.

Reportado por IA

Los expertos en ciberseguridad advierten que los hackers están aprovechando modelos de lenguaje grandes (LLMs) para crear ataques de phishing sofisticados. Estas herramientas de IA permiten generar páginas de phishing sobre la marcha, lo que podría hacer las estafas más dinámicas y difíciles de detectar. Esta tendencia resalta las amenazas en evolución en la seguridad digital.

AerynOS, una distribución Linux en fase alfa, ha implementado una política que prohíbe los modelos de lenguaje grandes en su desarrollo y actividades comunitarias. La medida aborda problemas éticos con los datos de entrenamiento, impactos ambientales y riesgos de calidad. Las excepciones se limitan a necesidades de traducción y accesibilidad.

Reportado por IA

Algunos usuarios de chatbots de IA de Google y OpenAI están generando imágenes deepfake que alteran fotos de mujeres completamente vestidas para mostrarlas en bikinis. Estas modificaciones suelen realizarse sin el consentimiento de las mujeres, e instrucciones para el proceso se comparten entre usuarios. La actividad resalta riesgos en herramientas de IA generativa.

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

Reportado por IA

Discord ha informado a los usuarios del Reino Unido de que podrían formar parte de un experimento que utiliza al proveedor de verificación de edad Persona, donde los datos enviados se almacenan temporalmente a diferencia de promesas anteriores. Este cambio ha generado preocupaciones sobre privacidad entre los usuarios, particularmente debido a los vínculos de Persona con el inversor Peter Thiel y su empresa de vigilancia Palantir. La actualización forma parte de un despliegue global más amplio de verificación de edad obligatoria que comienza a principios de marzo.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar