En ny forskningsrapport visar att stora språkmodeller kan identifiera verkliga identiteter bakom anonyma onlineanvändarnamn med hög noggrannhet. Metoden, som kostar så lite som 4 dollar per person, analyserar inlägg efter ledtrådar och korsrefererar dem över internet. Forskare från ETH Zurich, Anthropic och MATS varnar för minskad integritet online.
Publicerad den 26 februari 2026 heter uppsatsen »Storskalig online-avidentifiering med LLM« och undersöker hur avancerade AI-chattbotar kan avslöja verkliga personer bakom pseudonymer på plattformar som Reddit och Hacker News. Studien, utförd av forskare från ETH Zurich, Anthropic – moderbolaget till Claude – och MATS-forskningsgruppen, introducerar en teknik kallad ESRC: Extrahera ledtrådar, Sök, Resonera och Kalibrera. AI:n undersöker först inlägg efter personliga hintar, som intresse för Python-spelkodning, Marvel-filmer, klagomål om skola i Seattle eller distinkta skrivstilar. Sedan söker den på sajter som LinkedIn, Google och andra Reddit-konton för att hitta matchande profiler. Slutligen resonerar den kring överensstämmelser i stil, intressen och tidpunkter för att bedöma konfidensnivåer, och uppnår matchningar utan mänsklig inblandning. Tester på verkliga Hacker News-användare gav 67 procents framgångsgrad i att koppla hemliga användarnamn till verkliga identiteter, med 90 procents noggrannhet när AI:n gjorde förutsägelser. För Reddit-inlägg från samma användare över olika år eller grupper nådde framgångsgraden 68 procent. Processen är billig och kräver upp till 4 dollar per individ med tillgängliga chattbotar som framtida versioner av ChatGPT eller Claude. Simon Lermen, en av huvudforskarna, belyste konsekvenserna för integriteten. Tidigare byggde onlineanonymitet på den manuella utredningens arbetsinsats, som kunde ta timmar eller dagar. Nu möjliggör denna automatisering för individer, företag eller myndigheter att snabbt analysera tusentals konton och potentiellt avslöja namn, skolor, städer eller jobb från några kommentarer. Forskarna beskriver det som slutet på »praktisk otydlighet«, där otydlighet tidigare var möjlig trots tekniska möjligheter.