A Anthropic relatou ter detectado uma campanha de hacking patrocinada pelo Estado chinês que usou sua IA Claude para automatizar até 90% dos ataques contra dezenas de alvos. No entanto, especialistas externos são céticos quanto às reivindicações, argumentando que os resultados mostram apenas melhorias incrementais semelhantes às de ferramentas existentes. A campanha visou pelo menos 30 organizações, mas obteve sucesso em apenas um pequeno número de casos.
Em setembro de 2025, a Anthropic descobriu o que descreveu como a 'primeira campanha de espionagem cibernética orquestrada por IA relatada', conduzida por um grupo patrocinado pelo Estado chinês rastreado como GTG-1002. Os hackers empregaram a ferramenta de IA Claude da Anthropic, especificamente o Claude Code, para automatizar até 90% do trabalho em ataques direcionados a pelo menos 30 organizações, incluindo grandes corporações de tecnologia e agências governamentais. A intervenção humana foi necessária apenas esporadicamente, talvez em 4-6 pontos de decisão críticos por campanha, de acordo com os relatórios da Anthropic publicados na quinta-feira.
O framework usou o Claude como um mecanismo de orquestração para dividir ataques complexos de múltiplas etapas em tarefas menores, como varredura de vulnerabilidades, validação de credenciais, extração de dados e movimento lateral. Ele progrediu através de fases incluindo reconhecimento, acesso inicial, persistência e exfiltração de dados, adaptando-se com base nas informações descobertas. A Anthropic destacou as implicações para a cibersegurança, afirmando: 'Esta campanha tem implicações substanciais para a cibersegurança na era dos “agentes” de IA — sistemas que podem ser executados de forma autônoma por longos períodos de tempo e que completam tarefas complexas em grande parte independentes da intervenção humana.' A empresa observou que os agentes são valiosos para a produtividade, mas poderiam aumentar a viabilidade de ciberataques em larga escala nas mãos erradas.
No entanto, pesquisadores independentes questionaram a significância desses achados. Dan Tentler, fundador executivo do Phobos Group, disse ao Ars Technica: 'Eu continuo me recusando a acreditar que os atacantes de alguma forma conseguem fazer esses modelos pularem através de aros que ninguém mais pode. Por que os modelos dão aos atacantes o que eles querem 90% do tempo, mas o resto de nós tem que lidar com bajulação, obstrução e viagens ácidas?' Especialistas compararam o papel da IA com ferramentas de longa data como o Metasploit, que melhoraram a eficiência sem aumentar dramaticamente a potência ou o sigilo dos ataques.
A Anthropic reconheceu limitações, incluindo a tendência do Claude de alucinar ao exagerar achados ou fabricar dados, como afirmar credenciais não funcionais ou informações públicas como descobertas. Isso exigiu validação e impediu a autonomia total. Os ataques se basearam em software open-source facilmente disponível, e apenas um pequeno número teve sucesso, levantando dúvidas sobre o impacto geral da IA em comparação com métodos tradicionais. O pesquisador independente Kevin Beaumont afirmou: 'Os atores de ameaça não estão inventando algo novo aqui.' A Anthropic alertou sobre atores de ameaça usando IA em uma taxa sem precedentes, mas os dados sugerem resultados mistos em vez de um avanço.