Estudio muestra que la IA puede desanonimizar usuarios en línea a partir de publicaciones

Un nuevo artículo de investigación demuestra que los grandes modelos de lenguaje pueden identificar identidades reales detrás de nombres de usuario anónimos en línea con alta precisión. El método, que cuesta tan solo 4 dólares por persona, analiza las publicaciones en busca de pistas y las cruza con referencias en internet. Investigadores de ETH Zurich, Anthropic y MATS advierten de una privacidad en línea reducida.

Publicado el 26 de febrero de 2026, el artículo titulado «Deanominización en línea a gran escala con LLM» explora cómo los chatbots de IA avanzados pueden descubrir a las personas reales detrás de los seudónimos en plataformas como Reddit y Hacker News.  El estudio, realizado por investigadores de ETH Zurich, Anthropic —la empresa matriz de Claude— y el grupo de investigación MATS, presenta una técnica llamada ESRC: Extraer pistas, Buscar, Razonar y Calibrar. La IA primero examina las publicaciones en busca de indicios personales, como intereses en programación de juegos en Python, películas de Marvel, quejas sobre la escuela en Seattle o estilos de escritura distintivos. Luego busca en sitios como LinkedIn, Google y otras cuentas de Reddit para encontrar perfiles coincidentes. Finalmente, razona sobre las coincidencias en estilo, aficiones y horarios para evaluar los niveles de confianza, logrando coincidencias sin intervención humana.  Las pruebas con usuarios reales de Hacker News arrojaron una tasa de éxito del 67 % en la vinculación de nombres de usuario secretos con identidades reales, con un 90 % de precisión cuando la IA realizaba predicciones. Para publicaciones de Reddit del mismo usuario en diferentes años o grupos, la tasa de éxito alcanzó el 68 %. El proceso es económico, requiriendo hasta 4 dólares por individuo utilizando chatbots accesibles como futuras versiones de ChatGPT o Claude.  Simon Lermen, uno de los principales investigadores, destacó las implicaciones para la privacidad. Anteriormente, mantener el anonimato en línea dependía del esfuerzo requerido para investigaciones manuales, que podían tomar horas o días. Ahora, esta automatización permite a individuos, empresas o autoridades analizar rápidamente miles de cuentas, revelando potencialmente nombres, escuelas, ciudades o trabajos a partir de unos pocos comentarios. Los investigadores describen esto como el fin de la «oscuridad práctica», donde la oscuridad era factible a pesar de las posibilidades técnicas.

Artículos relacionados

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagen generada por IA

Moltbook AI social network sees rapid growth amid security concerns

Reportado por IA Imagen generada por IA

Launched in late January, Moltbook has quickly become a hub for AI agents to interact autonomously, attracting 1.5 million users by early February. While bots on the platform have developed communities and even a parody religion, experts highlight significant security risks including unsecured credentials. Observers debate whether these behaviors signal true AI emergence or mere mimicry of human patterns.

Cybersecurity experts warn that hackers are leveraging large language models (LLMs) to create sophisticated phishing attacks. These AI tools enable the generation of phishing pages on the spot, potentially making scams more dynamic and harder to detect. The trend highlights evolving threats in digital security.

Reportado por IA

A new study from Brown University identifies significant ethical concerns with using AI chatbots like ChatGPT for mental health advice. Researchers found that these systems often violate professional standards even when prompted to act as therapists. The work calls for better safeguards before deploying such tools in sensitive areas.

The domain AI.com has officially launched following its $70 million purchase by Crypto.com CEO Kris Marszalek and a debut advertisement during Super Bowl LX. The platform positions itself as a hub for AI agents designed to automate daily tasks. Early interest surged, but users raised questions about privacy and functionality.

Reportado por IA

Reddit users have proposed ideas to address the platform's bot problem. One suggestion described as 'the most lightweight way' involves using Face ID to prove users are human.

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

Reportado por IA

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar