Étude montre que l’IA peut désanonymiser les utilisateurs en ligne à partir de publications

Un nouveau article de recherche démontre que les grands modèles de langage peuvent identifier les identités réelles derrière les pseudonymes anonymes en ligne avec une grande précision. La méthode, coûtant seulement 4 dollars par personne, analyse les publications à la recherche d’indices et les recoupe sur Internet. Des chercheurs de ETH Zurich, Anthropic et MATS mettent en garde contre une réduction de la vie privée en ligne.

Publié le 26 février 2026, l’article intitulé «Désanonymisation en ligne à grande échelle avec les LLM» explore comment les chatbots IA avancés peuvent révéler les personnes réelles derrière les pseudonymes sur des plateformes comme Reddit et Hacker News.  L’étude, menée par des chercheurs de ETH Zurich, Anthropic—la société mère de Claude—et le groupe de recherche MATS, introduit une technique appelée ESRC : Extraire les indices, Rechercher, Raisonner et Calibrer. L’IA examine d’abord les publications pour des indices personnels, comme des intérêts pour la programmation de jeux en Python, les films Marvel, des plaintes sur l’école à Seattle ou des styles d’écriture distinctifs. Elle recherche ensuite des sites comme LinkedIn, Google et d’autres comptes Reddit pour trouver des profils correspondants. Enfin, elle raisonne sur les alignements de style, hobbies et horaires pour évaluer les niveaux de confiance, obtenant des correspondances sans intervention humaine.  Les tests sur de vrais utilisateurs de Hacker News ont donné un taux de succès de 67 % pour relier les pseudonymes secrets aux identités réelles, avec 90 % de précision lorsque l’IA faisait des prédictions. Pour les publications Reddit du même utilisateur sur différentes années ou groupes, le taux de succès a atteint 68 %. Le processus est peu coûteux, nécessitant jusqu’à 4 dollars par individu en utilisant des chatbots accessibles comme les futures versions de ChatGPT ou Claude.  Simon Lermen, l’un des principaux chercheurs, a souligné les implications pour la vie privée. Auparavant, le maintien de l’anonymat en ligne reposait sur l’effort requis pour des enquêtes manuelles, qui pouvaient prendre des heures ou des jours. Désormais, cette automatisation permet aux individus, entreprises ou autorités d’analyser rapidement des milliers de comptes, révélant potentiellement des noms, écoles, villes ou emplois à partir de quelques commentaires. Les chercheurs décrivent cela comme la fin de l’« obscurité pratique », où l’obscurité était autrefois réalisable malgré les possibilités techniques.

Articles connexes

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Image générée par IA

Moltbook AI social network sees rapid growth amid security concerns

Rapporté par l'IA Image générée par IA

Launched in late January, Moltbook has quickly become a hub for AI agents to interact autonomously, attracting 1.5 million users by early February. While bots on the platform have developed communities and even a parody religion, experts highlight significant security risks including unsecured credentials. Observers debate whether these behaviors signal true AI emergence or mere mimicry of human patterns.

Cybersecurity experts warn that hackers are leveraging large language models (LLMs) to create sophisticated phishing attacks. These AI tools enable the generation of phishing pages on the spot, potentially making scams more dynamic and harder to detect. The trend highlights evolving threats in digital security.

Rapporté par l'IA

A new study from Brown University identifies significant ethical concerns with using AI chatbots like ChatGPT for mental health advice. Researchers found that these systems often violate professional standards even when prompted to act as therapists. The work calls for better safeguards before deploying such tools in sensitive areas.

The domain AI.com has officially launched following its $70 million purchase by Crypto.com CEO Kris Marszalek and a debut advertisement during Super Bowl LX. The platform positions itself as a hub for AI agents designed to automate daily tasks. Early interest surged, but users raised questions about privacy and functionality.

Rapporté par l'IA

Reddit users have proposed ideas to address the platform's bot problem. One suggestion described as 'the most lightweight way' involves using Face ID to prove users are human.

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

Rapporté par l'IA

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser