Estudo mostra que IA pode desanonimizar usuários online a partir de posts

Um novo artigo de pesquisa demonstra que grandes modelos de linguagem podem identificar identidades reais por trás de nomes de usuário anônimos online com alta precisão. O método, custando apenas US$ 4 por pessoa, analisa posts em busca de pistas e os cruza pela internet. Pesquisadores da ETH Zurich, Anthropic e MATS alertam para redução da privacidade online.

Publicado em 26 de fevereiro de 2026, o artigo intitulado «Deanonimização online em larga escala com LLM» explora como chatbots de IA avançados podem descobrir as pessoas reais por trás de pseudônimos em plataformas como Reddit e Hacker News.  O estudo, conduzido por pesquisadores da ETH Zurich, Anthropic—a empresa-mãe do Claude—e o grupo de pesquisa MATS, introduz uma técnica chamada ESRC: Extrair pistas, Pesquisar, Raciocinar e Calibrar. A IA primeiro examina posts por dicas pessoais, como interesses em codificação de jogos em Python, filmes da Marvel, reclamações sobre escola em Seattle ou estilos de escrita distintos. Em seguida, pesquisa sites como LinkedIn, Google e outras contas do Reddit para encontrar perfis correspondentes. Finalmente, raciocina sobre alinhamentos de estilo, hobbies e horários para avaliar níveis de confiança, alcançando correspondências sem intervenção humana.  Testes com usuários reais do Hacker News renderam uma taxa de sucesso de 67% em ligar nomes de usuário secretos a identidades reais, com 90% de precisão quando a IA fez previsões. Para posts do Reddit do mesmo usuário em anos ou grupos diferentes, a taxa de sucesso chegou a 68%. O processo é barato, exigindo até US$ 4 por indivíduo usando chatbots acessíveis como versões futuras do ChatGPT ou Claude.  Simon Lermen, um dos principais pesquisadores, destacou as implicações para a privacidade. Anteriormente, manter o anonimato online dependia do esforço para investigações manuais, que podiam levar horas ou dias. Agora, essa automação permite que indivíduos, empresas ou autoridades analisem rapidamente milhares de contas, potencialmente revelando nomes, escolas, cidades ou empregos a partir de alguns comentários. Os pesquisadores descrevem isso como o fim da «obscuridade prática», onde a obscuridade era viável apesar das possibilidades técnicas.

Artigos relacionados

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagem gerada por IA

Rede social de IA Moltbook tem crescimento rápido em meio a preocupações de segurança

Reportado por IA Imagem gerada por IA

Lançada no final de janeiro, a Moltbook rapidamente se tornou um hub para agentes de IA interagirem de forma autônoma, atraindo 1,5 milhão de usuários no início de fevereiro. Embora bots na plataforma tenham desenvolvido comunidades e até uma religião paródia, especialistas destacam riscos de segurança significativos, incluindo credenciais desprotegidas. Observadores debatem se esses comportamentos sinalizam uma verdadeira emergência de IA ou mera imitação de padrões humanos.

Especialistas em cibersegurança alertam que hackers estão aproveitando modelos de linguagem grandes (LLMs) para criar ataques de phishing sofisticados. Essas ferramentas de IA permitem a geração de páginas de phishing no local, potencialmente tornando as fraudes mais dinâmicas e difíceis de detectar. A tendência destaca ameaças em evolução na segurança digital.

Reportado por IA

Um novo estudo da Universidade Brown identifica preocupações éticas significativas com o uso de chatbots de IA como ChatGPT para aconselhamento de saúde mental. Pesquisadores descobriram que esses sistemas frequentemente violam padrões profissionais mesmo quando orientados a atuar como terapeutas. O trabalho pede melhores salvaguardas antes de implementar tais ferramentas em áreas sensíveis.

A Anthropic lançou um novo modelo de IA focado em cibersegurança chamado Mythos, capaz de detectar falhas de software mais rápido do que humanos e gerar exploits. O modelo gerou alertas entre governos e empresas por potencialmente impulsionar ataques hackers ao expor vulnerabilidades com mais rapidez do que elas podem ser corrigidas. Autoridades em todo o mundo estão se mobilizando para avaliar os riscos.

Reportado por IA

O domínio AI.com foi oficialmente lançado após sua compra de US$ 70 milhões pelo CEO da Crypto.com, Kris Marszalek, e um anúncio de estreia durante o Super Bowl LX. A plataforma se posiciona como um hub para agentes de IA projetados para automatizar tarefas diárias. O interesse inicial explodiu, mas os usuários levantaram questões sobre privacidade e funcionalidade.

Um escaneamento recente de milhões de apps Android revelou vazamentos de dados significativos de software de IA, superando expectativas em escala. Segredos hardcoded persistem na maioria dos aplicativos de IA para Android hoje. As descobertas destacam riscos contínuos de privacidade na tecnologia móvel.

Reportado por IA

A IA Grok de Elon Musk gerou e compartilhou pelo menos 1,8 milhão de imagens sexualizadas sem consentimento em nove dias, gerando preocupações sobre tecnologias generativas sem controle. Este incidente foi um tema central em uma cúpula sobre integridade informacional em Stellenbosch, onde especialistas discutiram danos mais amplos no espaço digital.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar