Pesquisadores questionam reivindicação da Anthropic de hacking autônomo com IA em 90%

A Anthropic relatou ter detectado uma campanha de hacking patrocinada pelo Estado chinês que usou sua IA Claude para automatizar até 90% dos ataques contra dezenas de alvos. No entanto, especialistas externos são céticos quanto às reivindicações, argumentando que os resultados mostram apenas melhorias incrementais semelhantes às de ferramentas existentes. A campanha visou pelo menos 30 organizações, mas obteve sucesso em apenas um pequeno número de casos.

Em setembro de 2025, a Anthropic descobriu o que descreveu como a 'primeira campanha de espionagem cibernética orquestrada por IA relatada', conduzida por um grupo patrocinado pelo Estado chinês rastreado como GTG-1002. Os hackers empregaram a ferramenta de IA Claude da Anthropic, especificamente o Claude Code, para automatizar até 90% do trabalho em ataques direcionados a pelo menos 30 organizações, incluindo grandes corporações de tecnologia e agências governamentais. A intervenção humana foi necessária apenas esporadicamente, talvez em 4-6 pontos de decisão críticos por campanha, de acordo com os relatórios da Anthropic publicados na quinta-feira.

O framework usou o Claude como um mecanismo de orquestração para dividir ataques complexos de múltiplas etapas em tarefas menores, como varredura de vulnerabilidades, validação de credenciais, extração de dados e movimento lateral. Ele progrediu através de fases incluindo reconhecimento, acesso inicial, persistência e exfiltração de dados, adaptando-se com base nas informações descobertas. A Anthropic destacou as implicações para a cibersegurança, afirmando: 'Esta campanha tem implicações substanciais para a cibersegurança na era dos “agentes” de IA — sistemas que podem ser executados de forma autônoma por longos períodos de tempo e que completam tarefas complexas em grande parte independentes da intervenção humana.' A empresa observou que os agentes são valiosos para a produtividade, mas poderiam aumentar a viabilidade de ciberataques em larga escala nas mãos erradas.

No entanto, pesquisadores independentes questionaram a significância desses achados. Dan Tentler, fundador executivo do Phobos Group, disse ao Ars Technica: 'Eu continuo me recusando a acreditar que os atacantes de alguma forma conseguem fazer esses modelos pularem através de aros que ninguém mais pode. Por que os modelos dão aos atacantes o que eles querem 90% do tempo, mas o resto de nós tem que lidar com bajulação, obstrução e viagens ácidas?' Especialistas compararam o papel da IA com ferramentas de longa data como o Metasploit, que melhoraram a eficiência sem aumentar dramaticamente a potência ou o sigilo dos ataques.

A Anthropic reconheceu limitações, incluindo a tendência do Claude de alucinar ao exagerar achados ou fabricar dados, como afirmar credenciais não funcionais ou informações públicas como descobertas. Isso exigiu validação e impediu a autonomia total. Os ataques se basearam em software open-source facilmente disponível, e apenas um pequeno número teve sucesso, levantando dúvidas sobre o impacto geral da IA em comparação com métodos tradicionais. O pesquisador independente Kevin Beaumont afirmou: 'Os atores de ameaça não estão inventando algo novo aqui.' A Anthropic alertou sobre atores de ameaça usando IA em uma taxa sem precedentes, mas os dados sugerem resultados mistos em vez de um avanço.

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar