Estudo mostra que IA pode desanonimizar usuários online a partir de posts

Um novo artigo de pesquisa demonstra que grandes modelos de linguagem podem identificar identidades reais por trás de nomes de usuário anônimos online com alta precisão. O método, custando apenas US$ 4 por pessoa, analisa posts em busca de pistas e os cruza pela internet. Pesquisadores da ETH Zurich, Anthropic e MATS alertam para redução da privacidade online.

Publicado em 26 de fevereiro de 2026, o artigo intitulado «Deanonimização online em larga escala com LLM» explora como chatbots de IA avançados podem descobrir as pessoas reais por trás de pseudônimos em plataformas como Reddit e Hacker News.  O estudo, conduzido por pesquisadores da ETH Zurich, Anthropic—a empresa-mãe do Claude—e o grupo de pesquisa MATS, introduz uma técnica chamada ESRC: Extrair pistas, Pesquisar, Raciocinar e Calibrar. A IA primeiro examina posts por dicas pessoais, como interesses em codificação de jogos em Python, filmes da Marvel, reclamações sobre escola em Seattle ou estilos de escrita distintos. Em seguida, pesquisa sites como LinkedIn, Google e outras contas do Reddit para encontrar perfis correspondentes. Finalmente, raciocina sobre alinhamentos de estilo, hobbies e horários para avaliar níveis de confiança, alcançando correspondências sem intervenção humana.  Testes com usuários reais do Hacker News renderam uma taxa de sucesso de 67% em ligar nomes de usuário secretos a identidades reais, com 90% de precisão quando a IA fez previsões. Para posts do Reddit do mesmo usuário em anos ou grupos diferentes, a taxa de sucesso chegou a 68%. O processo é barato, exigindo até US$ 4 por indivíduo usando chatbots acessíveis como versões futuras do ChatGPT ou Claude.  Simon Lermen, um dos principais pesquisadores, destacou as implicações para a privacidade. Anteriormente, manter o anonimato online dependia do esforço para investigações manuais, que podiam levar horas ou dias. Agora, essa automação permite que indivíduos, empresas ou autoridades analisem rapidamente milhares de contas, potencialmente revelando nomes, escolas, cidades ou empregos a partir de alguns comentários. Os pesquisadores descrevem isso como o fim da «obscuridade prática», onde a obscuridade era viável apesar das possibilidades técnicas.

Artigos relacionados

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagem gerada por IA

Moltbook AI social network sees rapid growth amid security concerns

Reportado por IA Imagem gerada por IA

Launched in late January, Moltbook has quickly become a hub for AI agents to interact autonomously, attracting 1.5 million users by early February. While bots on the platform have developed communities and even a parody religion, experts highlight significant security risks including unsecured credentials. Observers debate whether these behaviors signal true AI emergence or mere mimicry of human patterns.

Cybersecurity experts warn that hackers are leveraging large language models (LLMs) to create sophisticated phishing attacks. These AI tools enable the generation of phishing pages on the spot, potentially making scams more dynamic and harder to detect. The trend highlights evolving threats in digital security.

Reportado por IA

A new study from Brown University identifies significant ethical concerns with using AI chatbots like ChatGPT for mental health advice. Researchers found that these systems often violate professional standards even when prompted to act as therapists. The work calls for better safeguards before deploying such tools in sensitive areas.

The domain AI.com has officially launched following its $70 million purchase by Crypto.com CEO Kris Marszalek and a debut advertisement during Super Bowl LX. The platform positions itself as a hub for AI agents designed to automate daily tasks. Early interest surged, but users raised questions about privacy and functionality.

Reportado por IA

Reddit users have proposed ideas to address the platform's bot problem. One suggestion described as 'the most lightweight way' involves using Face ID to prove users are human.

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

Reportado por IA

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

terça-feira, 31 de março de 2026, 02:54h

UK study reveals AI agents evading safeguards in user interactions

segunda-feira, 23 de março de 2026, 14:07h

Increased AI chatbot use among Swedes – but also concerns

quinta-feira, 19 de março de 2026, 04:05h

Three high-risk AI vulnerabilities discovered in Claude.ai

quarta-feira, 18 de março de 2026, 22:33h

ExpressVPN uncovers 3.7 million leaked AI chatbot data items

terça-feira, 17 de março de 2026, 21:38h

World launches Agent Kit beta for human-verified AI agents

quarta-feira, 11 de março de 2026, 06:12h

Study finds most AI chatbots assist in planning violent attacks

quarta-feira, 11 de março de 2026, 02:31h

Linux user finds local LLMs easier than on Windows

quarta-feira, 04 de fevereiro de 2026, 10:16h

Moltbook AI social network raises singularity alarms but involves human input

segunda-feira, 02 de fevereiro de 2026, 00:15h

Report uncovers data leaks in android ai apps

sábado, 24 de janeiro de 2026, 06:44h

Experts highlight AI threats like deepfakes and dark LLMs in cybercrime

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar