Étude montre que l’IA peut désanonymiser les utilisateurs en ligne à partir de publications

Un nouveau article de recherche démontre que les grands modèles de langage peuvent identifier les identités réelles derrière les pseudonymes anonymes en ligne avec une grande précision. La méthode, coûtant seulement 4 dollars par personne, analyse les publications à la recherche d’indices et les recoupe sur Internet. Des chercheurs de ETH Zurich, Anthropic et MATS mettent en garde contre une réduction de la vie privée en ligne.

Publié le 26 février 2026, l’article intitulé «Désanonymisation en ligne à grande échelle avec les LLM» explore comment les chatbots IA avancés peuvent révéler les personnes réelles derrière les pseudonymes sur des plateformes comme Reddit et Hacker News.  L’étude, menée par des chercheurs de ETH Zurich, Anthropic—la société mère de Claude—et le groupe de recherche MATS, introduit une technique appelée ESRC : Extraire les indices, Rechercher, Raisonner et Calibrer. L’IA examine d’abord les publications pour des indices personnels, comme des intérêts pour la programmation de jeux en Python, les films Marvel, des plaintes sur l’école à Seattle ou des styles d’écriture distinctifs. Elle recherche ensuite des sites comme LinkedIn, Google et d’autres comptes Reddit pour trouver des profils correspondants. Enfin, elle raisonne sur les alignements de style, hobbies et horaires pour évaluer les niveaux de confiance, obtenant des correspondances sans intervention humaine.  Les tests sur de vrais utilisateurs de Hacker News ont donné un taux de succès de 67 % pour relier les pseudonymes secrets aux identités réelles, avec 90 % de précision lorsque l’IA faisait des prédictions. Pour les publications Reddit du même utilisateur sur différentes années ou groupes, le taux de succès a atteint 68 %. Le processus est peu coûteux, nécessitant jusqu’à 4 dollars par individu en utilisant des chatbots accessibles comme les futures versions de ChatGPT ou Claude.  Simon Lermen, l’un des principaux chercheurs, a souligné les implications pour la vie privée. Auparavant, le maintien de l’anonymat en ligne reposait sur l’effort requis pour des enquêtes manuelles, qui pouvaient prendre des heures ou des jours. Désormais, cette automatisation permet aux individus, entreprises ou autorités d’analyser rapidement des milliers de comptes, révélant potentiellement des noms, écoles, villes ou emplois à partir de quelques commentaires. Les chercheurs décrivent cela comme la fin de l’« obscurité pratique », où l’obscurité était autrefois réalisable malgré les possibilités techniques.

Articles connexes

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Image générée par IA

Le réseau social IA Moltbook connaît une croissance rapide au milieu des préoccupations de sécurité

Rapporté par l'IA Image générée par IA

Lancé fin janvier, Moltbook est rapidement devenu un hub pour les agents IA interagissant de manière autonome, attirant 1,5 million d'utilisateurs début février. Bien que les bots sur la plateforme aient développé des communautés et même une religion parodique, les experts soulignent des risques de sécurité importants, y compris des identifiants non sécurisés. Les observateurs débattent si ces comportements signalent une véritable émergence de l'IA ou une simple imitation de schémas humains.

Une étude de l’université Cornell révèle que des outils d’IA comme ChatGPT ont augmenté la production d’articles des chercheurs jusqu’à 50 %, bénéficiant particulièrement aux non-anglophones. Cependant, cette vague de manuscrits polis complique les évaluations par les pairs et les décisions de financement, car beaucoup manquent de valeur scientifique substantielle. Les résultats soulignent un changement dans les dynamiques de la recherche mondiale et appellent à des politiques actualisées sur l’utilisation de l’IA en académie.

Rapporté par l'IA

Les experts en cybersécurité mettent en garde que les hackers exploitent des modèles de langage large (LLMs) pour créer des attaques de phishing sophistiquées. Ces outils d'IA permettent la génération de pages de phishing sur-le-champ, rendant potentiellement les arnaques plus dynamiques et plus difficiles à détecter. Cette tendance met en lumière les menaces évolutives en sécurité numérique.

AerynOS, une distribution Linux en phase alpha, a mis en place une politique interdisant les modèles de langage large dans son développement et ses activités communautaires. Cette mesure aborde les problèmes éthiques liés aux données d'entraînement, aux impacts environnementaux et aux risques de qualité. Les exceptions sont limitées aux besoins de traduction et d'accessibilité.

Rapporté par l'IA

Certains utilisateurs de chatbots d'IA de Google et OpenAI génèrent des images deepfake qui modifient des photos de femmes entièrement vêtues pour les montrer en bikini. Ces modifications se font souvent sans le consentement des femmes, et les instructions pour le processus sont partagées entre utilisateurs. Cette activité met en lumière les risques des outils d'IA générative.

Le chancelier Friedrich Merz a critiqué l’anonymat sur internet lors d’un événement à Trèves et a exigé des vrais noms. Il a mis en garde contre les dangers de l’intelligence artificielle pour la société libre et a plaidé pour des restrictions sur les réseaux sociaux pour les mineurs.

Rapporté par l'IA

Discord a informé les utilisateurs britanniques qu'ils pourraient faire partie d'une expérience utilisant le fournisseur de garantie d'âge Persona pour la vérification, où les données soumises sont stockées temporairement contrairement aux promesses précédentes. Ce changement suscite des préoccupations en matière de confidentialité parmi les utilisateurs, en particulier en raison des liens de Persona avec l'investisseur Peter Thiel et sa société de surveillance Palantir. Cette mise à jour fait partie d'un déploiement mondial plus large de vérification d'âge obligatoire débutant début mars.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser