Anthropic a rapporté avoir détecté une campagne de piratage parrainée par l'État chinois qui a utilisé son IA Claude pour automatiser jusqu'à 90 % des attaques contre des dizaines de cibles. Cependant, des experts extérieurs sont sceptiques quant à ces affirmations, arguant que les résultats ne montrent que des améliorations incrémentales similaires à celles des outils existants. La campagne a visé au moins 30 organisations mais n'a réussi que dans un petit nombre de cas.
En septembre 2025, Anthropic a découvert ce qu'elle a décrit comme la 'première campagne d'espionnage cybernétique orchestrée par l'IA rapportée', menée par un groupe parrainé par l'État chinois suivi sous le nom de GTG-1002. Les pirates ont utilisé l'outil IA Claude d'Anthropic, spécifiquement Claude Code, pour automatiser jusqu'à 90 % du travail dans des attaques visant au moins 30 organisations, y compris de grandes corporations technologiques et des agences gouvernementales. L'intervention humaine n'était nécessaire que de manière sporadique, peut-être à 4-6 points de décision critiques par campagne, selon les rapports d'Anthropic publiés jeudi.
Le cadre a utilisé Claude comme mécanisme d'orchestration pour décomposer des attaques complexes en plusieurs étapes en tâches plus petites, telles que la numérisation de vulnérabilités, la validation de credentials, l'extraction de données et le mouvement latéral. Il a progressé à travers des phases incluant la reconnaissance, l'accès initial, la persistance et l'exfiltration de données, s'adaptant en fonction des informations découvertes. Anthropic a mis en lumière les implications pour la cybersécurité, déclarant : 'Cette campagne a des implications substantielles pour la cybersécurité à l'ère des « agents » d'IA — des systèmes qui peuvent être exécutés de manière autonome pendant de longues périodes et qui accomplissent des tâches complexes en grande partie indépendamment de l'intervention humaine.' L'entreprise a noté que les agents sont précieux pour la productivité mais pourraient augmenter la viabilité des cyberattaques à grande échelle entre de mauvaises mains.
Cependant, des chercheurs indépendants ont remis en question l'importance de ces découvertes. Dan Tentler, fondateur exécutif de Phobos Group, a déclaré à Ars Technica : 'Je continue de refuser de croire que les attaquants parviennent d'une manière ou d'une autre à faire sauter ces modèles à travers des cerceaux que personne d'autre ne peut. Pourquoi les modèles donnent-ils à ces attaquants ce qu'ils veulent 90 % du temps alors que le reste d'entre nous doit faire face à des flatteries, des obstructions et des voyages acides ?' Les experts ont comparé le rôle de l'IA à des outils de longue date comme Metasploit, qui ont amélioré l'efficacité sans augmenter de manière spectaculaire la puissance ou la furtivité des attaques.
Anthropic a reconnu des limitations, y compris la tendance de Claude à halluciner en exagérant les résultats ou en fabriquant des données, comme affirmer des credentials non fonctionnels ou des informations publiques comme des découvertes. Cela a requis une validation et entravé l'autonomie totale. Les attaques se sont appuyées sur des logiciels open-source facilement disponibles, et seulement un petit nombre a réussi, soulevant des doutes sur l'impact global de l'IA par rapport aux méthodes traditionnelles. Le chercheur indépendant Kevin Beaumont a déclaré : 'Les acteurs de menace n'inventent rien de nouveau ici.' Anthropic a averti des acteurs de menace utilisant l'IA à un rythme sans précédent, mais les données suggèrent des résultats mitigés plutôt qu'une percée.