Um novo artigo de pesquisa demonstra que grandes modelos de linguagem podem identificar identidades reais por trás de nomes de usuário anônimos online com alta precisão. O método, custando apenas US$ 4 por pessoa, analisa posts em busca de pistas e os cruza pela internet. Pesquisadores da ETH Zurich, Anthropic e MATS alertam para redução da privacidade online.
Publicado em 26 de fevereiro de 2026, o artigo intitulado «Deanonimização online em larga escala com LLM» explora como chatbots de IA avançados podem descobrir as pessoas reais por trás de pseudônimos em plataformas como Reddit e Hacker News. O estudo, conduzido por pesquisadores da ETH Zurich, Anthropic—a empresa-mãe do Claude—e o grupo de pesquisa MATS, introduz uma técnica chamada ESRC: Extrair pistas, Pesquisar, Raciocinar e Calibrar. A IA primeiro examina posts por dicas pessoais, como interesses em codificação de jogos em Python, filmes da Marvel, reclamações sobre escola em Seattle ou estilos de escrita distintos. Em seguida, pesquisa sites como LinkedIn, Google e outras contas do Reddit para encontrar perfis correspondentes. Finalmente, raciocina sobre alinhamentos de estilo, hobbies e horários para avaliar níveis de confiança, alcançando correspondências sem intervenção humana. Testes com usuários reais do Hacker News renderam uma taxa de sucesso de 67% em ligar nomes de usuário secretos a identidades reais, com 90% de precisão quando a IA fez previsões. Para posts do Reddit do mesmo usuário em anos ou grupos diferentes, a taxa de sucesso chegou a 68%. O processo é barato, exigindo até US$ 4 por indivíduo usando chatbots acessíveis como versões futuras do ChatGPT ou Claude. Simon Lermen, um dos principais pesquisadores, destacou as implicações para a privacidade. Anteriormente, manter o anonimato online dependia do esforço para investigações manuais, que podiam levar horas ou dias. Agora, essa automação permite que indivíduos, empresas ou autoridades analisem rapidamente milhares de contas, potencialmente revelando nomes, escolas, cidades ou empregos a partir de alguns comentários. Os pesquisadores descrevem isso como o fim da «obscuridade prática», onde a obscuridade era viável apesar das possibilidades técnicas.