Estudo mostra que IA pode desanonimizar usuários online a partir de posts

Um novo artigo de pesquisa demonstra que grandes modelos de linguagem podem identificar identidades reais por trás de nomes de usuário anônimos online com alta precisão. O método, custando apenas US$ 4 por pessoa, analisa posts em busca de pistas e os cruza pela internet. Pesquisadores da ETH Zurich, Anthropic e MATS alertam para redução da privacidade online.

Publicado em 26 de fevereiro de 2026, o artigo intitulado «Deanonimização online em larga escala com LLM» explora como chatbots de IA avançados podem descobrir as pessoas reais por trás de pseudônimos em plataformas como Reddit e Hacker News.  O estudo, conduzido por pesquisadores da ETH Zurich, Anthropic—a empresa-mãe do Claude—e o grupo de pesquisa MATS, introduz uma técnica chamada ESRC: Extrair pistas, Pesquisar, Raciocinar e Calibrar. A IA primeiro examina posts por dicas pessoais, como interesses em codificação de jogos em Python, filmes da Marvel, reclamações sobre escola em Seattle ou estilos de escrita distintos. Em seguida, pesquisa sites como LinkedIn, Google e outras contas do Reddit para encontrar perfis correspondentes. Finalmente, raciocina sobre alinhamentos de estilo, hobbies e horários para avaliar níveis de confiança, alcançando correspondências sem intervenção humana.  Testes com usuários reais do Hacker News renderam uma taxa de sucesso de 67% em ligar nomes de usuário secretos a identidades reais, com 90% de precisão quando a IA fez previsões. Para posts do Reddit do mesmo usuário em anos ou grupos diferentes, a taxa de sucesso chegou a 68%. O processo é barato, exigindo até US$ 4 por indivíduo usando chatbots acessíveis como versões futuras do ChatGPT ou Claude.  Simon Lermen, um dos principais pesquisadores, destacou as implicações para a privacidade. Anteriormente, manter o anonimato online dependia do esforço para investigações manuais, que podiam levar horas ou dias. Agora, essa automação permite que indivíduos, empresas ou autoridades analisem rapidamente milhares de contas, potencialmente revelando nomes, escolas, cidades ou empregos a partir de alguns comentários. Os pesquisadores descrevem isso como o fim da «obscuridade prática», onde a obscuridade era viável apesar das possibilidades técnicas.

Artigos relacionados

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagem gerada por IA

Rede social de IA Moltbook tem crescimento rápido em meio a preocupações de segurança

Reportado por IA Imagem gerada por IA

Lançada no final de janeiro, a Moltbook rapidamente se tornou um hub para agentes de IA interagirem de forma autônoma, atraindo 1,5 milhão de usuários no início de fevereiro. Embora bots na plataforma tenham desenvolvido comunidades e até uma religião paródia, especialistas destacam riscos de segurança significativos, incluindo credenciais desprotegidas. Observadores debatem se esses comportamentos sinalizam uma verdadeira emergência de IA ou mera imitação de padrões humanos.

Um estudo da Universidade de Cornell revela que ferramentas de IA como ChatGPT aumentaram a produção de artigos dos pesquisadores em até 50%, beneficiando especialmente falantes não nativos de inglês. No entanto, esse aumento em manuscritos polidos está complicando revisões por pares e decisões de financiamento, pois muitos carecem de valor científico substancial. As descobertas destacam uma mudança na dinâmica da pesquisa global e pedem políticas atualizadas sobre o uso de IA na academia.

Reportado por IA

Especialistas em cibersegurança alertam que hackers estão aproveitando modelos de linguagem grandes (LLMs) para criar ataques de phishing sofisticados. Essas ferramentas de IA permitem a geração de páginas de phishing no local, potencialmente tornando as fraudes mais dinâmicas e difíceis de detectar. A tendência destaca ameaças em evolução na segurança digital.

AerynOS, uma distribuição Linux em fase alpha, implementou uma política que proíbe modelos de linguagem grandes em seu desenvolvimento e atividades comunitárias. A medida aborda questões éticas com dados de treinamento, impactos ambientais e riscos de qualidade. As exceções são limitadas a necessidades de tradução e acessibilidade.

Reportado por IA

Alguns usuários de chatbots de IA do Google e OpenAI estão gerando imagens deepfake que alteram fotos de mulheres totalmente vestidas para mostrá-las de biquíni. Essas modificações ocorrem frequentemente sem o consentimento das mulheres, e instruções para o processo são compartilhadas entre usuários. A atividade destaca riscos em ferramentas de IA generativa.

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

Reportado por IA

Discord has informed UK users that they may be part of an experiment using the age-assurance vendor Persona for verification, where submitted data is temporarily stored unlike previous promises. This change has raised privacy concerns among users, particularly due to Persona's links to investor Peter Thiel and his surveillance firm Palantir. The update is part of a broader global rollout of mandatory age verification starting in early March.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar