Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.
Les négociations entre le Pentagone et Anthropic se sont intensifiées ces dernières semaines alors que les responsables de la défense cherchaient des termes contractuels permettant à l’armée d’utiliser les modèles d’IA d’Anthropic à toutes les fins légales »nnSelon The Daily Wire, Anthropic était disposée à continuer de fournir l’accès à ses modèles mais insistait sur deux exclusions : interdire l’utilisation dans des systèmes d’armes pleinement autonomes et interdire l’utilisation pour une surveillance domestique de masse. Le média a rapporté que l’administration Biden avait accepté ces termes dans un contrat de 2024, mais que l’administration Trump avait rouvert la question.nnUn haut responsable technologique du Pentagone, Emil Michael — identifié par The Daily Wire comme le sous-secrétaire de l’administration Trump supervisant le différend —, a critiqué ce qu’il a décrit comme des contraintes intégrées dans les accords antérieurs. « J’ai examiné les contrats et je me suis dit, mon Dieu. On ne peut pas les utiliser pour planifier une frappe cinétique. On ne peut pas utiliser leur modèle d’IA pour déplacer un satellite », a-t-il déclaré, selon The Daily Wire. Michael a ajouté qu’il voulait des « conditions de service » qu’il jugeait compatibles avec la mission du département.nnThe Daily Wire a également rapporté qu’Anthropic avait proposé des exceptions limitées — telles que l’utilisation pour planifier un essaim de drones ou répondre à un missile hypersonique chinois —, mais Michael a déclaré que ces exclusions n’étaient pas suffisantes. Il a également exprimé des préoccupations selon lesquelles des restrictions basées sur des politiques pourraient créer un risque opérationnel si un fournisseur coupait le service en pleine mission.nnLe différend a culminé lorsque le Pentagone a déclaré qu’il avait « officiellement informé la direction d’Anthropic que la société et ses produits sont considérés comme un risque pour la chaîne d’approvisionnement, avec effet immédiat », selon un rapport de l’Associated Press citant un communiqué du Pentagone.nnLe PDG d’Anthropic, Dario Amodei, a déclaré que l’entreprise ne juge pas cette désignation juridiquement valable et prévoit de la contester en justice, a rapporté l’AP. Dans un communiqué publié par Anthropic le 5 mars 2026, Amodei a indiqué que l’entreprise avait reçu une lettre le 4 mars confirmant la désignation et a argué que la portée pratique de cette mesure est étroite en vertu de la loi citée, s’appliquant uniquement à l’utilisation de Claude « comme partie directe de » les contrats du Département de la Guerre — et non à l’ensemble des usages clients.nnLe secrétaire à la Défense Pete Hegseth a publiquement argué que les fournisseurs ne devraient pas pouvoir restreindre l’utilisation légale de la technologie par l’armée, une opinion reprise dans le communiqué du Pentagone à l’AP selon lequel l’armée « ne permettra pas à un fournisseur de s’insérer dans la chaîne de commandement en restreignant l’utilisation légale d’une capacité critique et en mettant nos combattants en danger ».nnSéparément, The Daily Wire a rapporté que le conseiller en IA de l’administration Trump, David Sacks, a critiqué ce qu’il a décrit comme des liens à l’époque Biden entre le personnel de politique en IA et Anthropic, et a nommé les anciens responsables Biden Elizabeth Kelly et Benjamin Merkel comme désormais employés par la société. The Daily Wire a également rapporté qu’Anthropic avait nommé l’ancien responsable de l’administration Trump Chris Liddell à son conseil d’administration.nnL’impact juridique et pratique plus large de la désignation de « risque pour la chaîne d’approvisionnement » reste contesté. Des analystes juridiques et des critiques ont argué que l’autorité invoquée est plus étroite que certaines affirmations publiques sur une interdiction générale pour les contractants de faire des affaires avec Anthropic, tandis qu’Anthropic a déclaré que la lettre du Pentagone reflète une application limitée liée à des contrats de défense spécifiques.nnDans son reportage sur le différend, l’AP a indiqué que la confrontation porte sur l’insistance d’Anthropic pour que sa technologie ne soit pas utilisée pour une surveillance de masse des Américains ou des armes pleinement autonomes — des garde-fous que l’entreprise juge nécessaires même si elle affirme que la prise de décision opérationnelle doit rester du ressort de l’armée.