Studie visar att AI kan avidentifiera onlineanvändare från inlägg

En ny forskningsrapport visar att stora språkmodeller kan identifiera verkliga identiteter bakom anonyma onlineanvändarnamn med hög noggrannhet. Metoden, som kostar så lite som 4 dollar per person, analyserar inlägg efter ledtrådar och korsrefererar dem över internet. Forskare från ETH Zurich, Anthropic och MATS varnar för minskad integritet online.

Publicerad den 26 februari 2026 heter uppsatsen »Storskalig online-avidentifiering med LLM« och undersöker hur avancerade AI-chattbotar kan avslöja verkliga personer bakom pseudonymer på plattformar som Reddit och Hacker News.  Studien, utförd av forskare från ETH Zurich, Anthropic – moderbolaget till Claude – och MATS-forskningsgruppen, introducerar en teknik kallad ESRC: Extrahera ledtrådar, Sök, Resonera och Kalibrera. AI:n undersöker först inlägg efter personliga hintar, som intresse för Python-spelkodning, Marvel-filmer, klagomål om skola i Seattle eller distinkta skrivstilar. Sedan söker den på sajter som LinkedIn, Google och andra Reddit-konton för att hitta matchande profiler. Slutligen resonerar den kring överensstämmelser i stil, intressen och tidpunkter för att bedöma konfidensnivåer, och uppnår matchningar utan mänsklig inblandning.  Tester på verkliga Hacker News-användare gav 67 procents framgångsgrad i att koppla hemliga användarnamn till verkliga identiteter, med 90 procents noggrannhet när AI:n gjorde förutsägelser. För Reddit-inlägg från samma användare över olika år eller grupper nådde framgångsgraden 68 procent. Processen är billig och kräver upp till 4 dollar per individ med tillgängliga chattbotar som framtida versioner av ChatGPT eller Claude.  Simon Lermen, en av huvudforskarna, belyste konsekvenserna för integriteten. Tidigare byggde onlineanonymitet på den manuella utredningens arbetsinsats, som kunde ta timmar eller dagar. Nu möjliggör denna automatisering för individer, företag eller myndigheter att snabbt analysera tusentals konton och potentiellt avslöja namn, skolor, städer eller jobb från några kommentarer. Forskarna beskriver det som slutet på »praktisk otydlighet«, där otydlighet tidigare var möjlig trots tekniska möjligheter.

Relaterade artiklar

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Bild genererad av AI

Moltbook AI social network sees rapid growth amid security concerns

Rapporterad av AI Bild genererad av AI

Launched in late January, Moltbook has quickly become a hub for AI agents to interact autonomously, attracting 1.5 million users by early February. While bots on the platform have developed communities and even a parody religion, experts highlight significant security risks including unsecured credentials. Observers debate whether these behaviors signal true AI emergence or mere mimicry of human patterns.

Cybersecurity experts warn that hackers are leveraging large language models (LLMs) to create sophisticated phishing attacks. These AI tools enable the generation of phishing pages on the spot, potentially making scams more dynamic and harder to detect. The trend highlights evolving threats in digital security.

Rapporterad av AI

A new study from Brown University identifies significant ethical concerns with using AI chatbots like ChatGPT for mental health advice. Researchers found that these systems often violate professional standards even when prompted to act as therapists. The work calls for better safeguards before deploying such tools in sensitive areas.

The domain AI.com has officially launched following its $70 million purchase by Crypto.com CEO Kris Marszalek and a debut advertisement during Super Bowl LX. The platform positions itself as a hub for AI agents designed to automate daily tasks. Early interest surged, but users raised questions about privacy and functionality.

Rapporterad av AI

Reddit users have proposed ideas to address the platform's bot problem. One suggestion described as 'the most lightweight way' involves using Face ID to prove users are human.

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

Rapporterad av AI

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj