Studie visar att AI kan avidentifiera onlineanvändare från inlägg

En ny forskningsrapport visar att stora språkmodeller kan identifiera verkliga identiteter bakom anonyma onlineanvändarnamn med hög noggrannhet. Metoden, som kostar så lite som 4 dollar per person, analyserar inlägg efter ledtrådar och korsrefererar dem över internet. Forskare från ETH Zurich, Anthropic och MATS varnar för minskad integritet online.

Publicerad den 26 februari 2026 heter uppsatsen »Storskalig online-avidentifiering med LLM« och undersöker hur avancerade AI-chattbotar kan avslöja verkliga personer bakom pseudonymer på plattformar som Reddit och Hacker News.  Studien, utförd av forskare från ETH Zurich, Anthropic – moderbolaget till Claude – och MATS-forskningsgruppen, introducerar en teknik kallad ESRC: Extrahera ledtrådar, Sök, Resonera och Kalibrera. AI:n undersöker först inlägg efter personliga hintar, som intresse för Python-spelkodning, Marvel-filmer, klagomål om skola i Seattle eller distinkta skrivstilar. Sedan söker den på sajter som LinkedIn, Google och andra Reddit-konton för att hitta matchande profiler. Slutligen resonerar den kring överensstämmelser i stil, intressen och tidpunkter för att bedöma konfidensnivåer, och uppnår matchningar utan mänsklig inblandning.  Tester på verkliga Hacker News-användare gav 67 procents framgångsgrad i att koppla hemliga användarnamn till verkliga identiteter, med 90 procents noggrannhet när AI:n gjorde förutsägelser. För Reddit-inlägg från samma användare över olika år eller grupper nådde framgångsgraden 68 procent. Processen är billig och kräver upp till 4 dollar per individ med tillgängliga chattbotar som framtida versioner av ChatGPT eller Claude.  Simon Lermen, en av huvudforskarna, belyste konsekvenserna för integriteten. Tidigare byggde onlineanonymitet på den manuella utredningens arbetsinsats, som kunde ta timmar eller dagar. Nu möjliggör denna automatisering för individer, företag eller myndigheter att snabbt analysera tusentals konton och potentiellt avslöja namn, skolor, städer eller jobb från några kommentarer. Forskarna beskriver det som slutet på »praktisk otydlighet«, där otydlighet tidigare var möjlig trots tekniska möjligheter.

Relaterade artiklar

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Bild genererad av AI

Moltbook AI-socialnätverk växer snabbt mitt i säkerhetsoro

Rapporterad av AI Bild genererad av AI

Lanserades sent i januari och har Moltbook snabbt blivit ett nav för AI-agenter att interagera autonomt, och lockat 1,5 miljoner användare i början av februari. Medan botar på plattformen utvecklat communities och till och med en parodireligion framhåller experter betydande säkerhetsrisker inklusive oskyddade uppgifter. Bedömare debatterar om dessa beteenden signalerar äkta AI-uppkomst eller blott efterapning av mänskliga mönster.

En studie från Cornell University visar att AI-verktyg som ChatGPT har ökat forskares pappersproduktion med upp till 50 %, särskilt till fördel för icke-engelska modersmålstalare. Denna ökning av polerade manuskript komplicerar dock peer review och finansieringsbeslut, eftersom många saknar substansiell vetenskaplig värde. Resultaten belyser en förskjutning i global forskningsdynamik och kräver uppdaterade policys för AI-användning i akademin.

Rapporterad av AI

Cybersäkerhetsexperter varnar för att hackare utnyttjar stora språkmodeller (LLMs) för att skapa sofistikerade phishingattacker. Dessa AI-verktyg gör det möjligt att generera phishing-sidor på plats, vilket potentiellt gör bedrägerier mer dynamiska och svårare att upptäcka. Trenderna belyser utvecklande hot inom digital säkerhet.

AerynOS, en Linux-distribution i alfa-stadiet, har infört en policy som förbjuder stora språkmodeller i sin utveckling och community-aktiviteter. Åtgärden hanterar etiska problem med träningsdata, miljöpåverkan och kvalitetsrisker. Undantag är begränsade till översättnings- och tillgänglighetsbehov.

Rapporterad av AI

Vissa användare av AI-chatbots från Google och OpenAI skapar deepfake-bilder som ändrar foton på fullt påklädda kvinnor till att visa dem i bikinis. Dessa ändringar sker ofta utan kvinnornas samtycke, och instruktioner för processen delas mellan användare. Aktiviteten belyser risker med generativa AI-verktyg.

Kansler Friedrich Merz kritiserade internets anonymitet vid ett evenemang i Trier och krävde riktiga namn. Han varnade för farorna med artificiell intelligens för det fria samhället och förespråkade restriktioner för sociala medier för minderåriga.

Rapporterad av AI

Discord har informerat brittiska användare om att de kan ingå i ett experiment med åldersverifieringsleverantören Persona, där inskickade uppgifter temporärt lagras till skillnad från tidigare löften. Denna förändring har väckt integritetsoro bland användare, särskilt på grund av Personas kopplingar till investeraren Peter Thiel och hans övervakningsföretag Palantir. Uppdateringen är en del av en bredare global utrullning av obligatorisk åldersverifiering som startar i början av mars.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj