Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.
Le conflit entre Anthropic et le département de la Défense des États-Unis s'est intensifié fin février 2026, lorsque le Pentagone a demandé un accès plus large au modèle d'IA Claude d'Anthropic pour « tous les usages légaux ». Anthropic a refusé de supprimer les garde-fous interdisant son utilisation pour la surveillance domestique de masse ou les systèmes d'armes totalement autonomes sans supervision humaine. Le 26 février, le PDG Dario Amodei a déclaré que l'IA puissante permet d'assembler des données dispersées en profils complets d'individus à grande échelle, soulignant les préoccupations de l'entreprise »n»nLe 27 février, après qu'Anthropic a refusé de modifier ses conditions, le secrétaire à la Défense Pete Hegseth a menacé de désigner l'entreprise comme un risque pour la chaîne d'approvisionnement et d'annuler son contrat de 200 millions de dollars. Le président Donald Trump a ensuite ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic. Le Pentagone a formalisé la désignation fin du mois dernier, incitant Anthropic à intenter un procès le 9 mars devant un tribunal fédéral. La plainte décrit ces actions comme une « campagne de représailles sans précédent et illégale », affirmant que « la Constitution n'autorise pas le gouvernement à user de son immense pouvoir pour punir une entreprise pour son discours protégé » »n»nLes responsables du Pentagone soutiennent que la question est caduque, les lois actuelles interdisant une telle surveillance et le département n'ayant aucun plan pour des armes autonomes. Cependant, des experts comme Hamza Chaudhry du Future of Life Institute l'ont qualifié de « vide réel en matière de gouvernance » et d'appel à l'action pour le Congrès afin d'adopter des réglementations claires. Greg Nojeim du Center for Democracy and Technology a noté que les modèles d'IA « ne sont pas assez fiables » pour des armes totalement autonomes, critiquant le Pentagone pour avoir rejeté les conseils d'experts. »n»nEn réponse, le Pentagone a conclu un accord avec OpenAI, qui incluait des dispositions contre la surveillance domestique des personnes américaines. Le PDG d'OpenAI Sam Altman a confirmé que l'outil ne serait pas utilisé par les agences de renseignement. Plus de 30 employés d'OpenAI et de Google, y compris le scientifique en chef de Google DeepMind Jeff Dean, ont déposé un mémoire d'amicus soutenant Anthropic le 9 mars. Malgré la querelle, Anthropic continue de fournir ses modèles à l'armée à un coût nominal, y compris pour une utilisation dans la guerre en cours en Iran. Amodei a souligné l'engagement de l'entreprise envers la sécurité nationale tout en poursuivant la résolution légale.