Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Image générée par IA

Le Pentagone désigne Anthropic comme un « risque pour la chaîne d’approvisionnement » après un différend sur les limites d’utilisation militaire pour Claude ai

Image générée par IA
Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

Les négociations entre le Pentagone et Anthropic se sont intensifiées ces dernières semaines alors que les responsables de la défense cherchaient des termes contractuels permettant à l’armée d’utiliser les modèles d’IA d’Anthropic à toutes les fins légales »nnSelon The Daily Wire, Anthropic était disposée à continuer de fournir l’accès à ses modèles mais insistait sur deux exclusions : interdire l’utilisation dans des systèmes d’armes pleinement autonomes et interdire l’utilisation pour une surveillance domestique de masse. Le média a rapporté que l’administration Biden avait accepté ces termes dans un contrat de 2024, mais que l’administration Trump avait rouvert la question.nnUn haut responsable technologique du Pentagone, Emil Michael — identifié par The Daily Wire comme le sous-secrétaire de l’administration Trump supervisant le différend —, a critiqué ce qu’il a décrit comme des contraintes intégrées dans les accords antérieurs. « J’ai examiné les contrats et je me suis dit, mon Dieu. On ne peut pas les utiliser pour planifier une frappe cinétique. On ne peut pas utiliser leur modèle d’IA pour déplacer un satellite », a-t-il déclaré, selon The Daily Wire. Michael a ajouté qu’il voulait des « conditions de service » qu’il jugeait compatibles avec la mission du département.nnThe Daily Wire a également rapporté qu’Anthropic avait proposé des exceptions limitées — telles que l’utilisation pour planifier un essaim de drones ou répondre à un missile hypersonique chinois —, mais Michael a déclaré que ces exclusions n’étaient pas suffisantes. Il a également exprimé des préoccupations selon lesquelles des restrictions basées sur des politiques pourraient créer un risque opérationnel si un fournisseur coupait le service en pleine mission.nnLe différend a culminé lorsque le Pentagone a déclaré qu’il avait « officiellement informé la direction d’Anthropic que la société et ses produits sont considérés comme un risque pour la chaîne d’approvisionnement, avec effet immédiat », selon un rapport de l’Associated Press citant un communiqué du Pentagone.nnLe PDG d’Anthropic, Dario Amodei, a déclaré que l’entreprise ne juge pas cette désignation juridiquement valable et prévoit de la contester en justice, a rapporté l’AP. Dans un communiqué publié par Anthropic le 5 mars 2026, Amodei a indiqué que l’entreprise avait reçu une lettre le 4 mars confirmant la désignation et a argué que la portée pratique de cette mesure est étroite en vertu de la loi citée, s’appliquant uniquement à l’utilisation de Claude « comme partie directe de » les contrats du Département de la Guerre — et non à l’ensemble des usages clients.nnLe secrétaire à la Défense Pete Hegseth a publiquement argué que les fournisseurs ne devraient pas pouvoir restreindre l’utilisation légale de la technologie par l’armée, une opinion reprise dans le communiqué du Pentagone à l’AP selon lequel l’armée « ne permettra pas à un fournisseur de s’insérer dans la chaîne de commandement en restreignant l’utilisation légale d’une capacité critique et en mettant nos combattants en danger ».nnSéparément, The Daily Wire a rapporté que le conseiller en IA de l’administration Trump, David Sacks, a critiqué ce qu’il a décrit comme des liens à l’époque Biden entre le personnel de politique en IA et Anthropic, et a nommé les anciens responsables Biden Elizabeth Kelly et Benjamin Merkel comme désormais employés par la société. The Daily Wire a également rapporté qu’Anthropic avait nommé l’ancien responsable de l’administration Trump Chris Liddell à son conseil d’administration.nnL’impact juridique et pratique plus large de la désignation de « risque pour la chaîne d’approvisionnement » reste contesté. Des analystes juridiques et des critiques ont argué que l’autorité invoquée est plus étroite que certaines affirmations publiques sur une interdiction générale pour les contractants de faire des affaires avec Anthropic, tandis qu’Anthropic a déclaré que la lettre du Pentagone reflète une application limitée liée à des contrats de défense spécifiques.nnDans son reportage sur le différend, l’AP a indiqué que la confrontation porte sur l’insistance d’Anthropic pour que sa technologie ne soit pas utilisée pour une surveillance de masse des Américains ou des armes pleinement autonomes — des garde-fous que l’entreprise juge nécessaires même si elle affirme que la prise de décision opérationnelle doit rester du ressort de l’armée.

Articles connexes

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic sues US defense department over supply chain risk designation

Rapporté par l'IA Image générée par IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Rapporté par l'IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

In the latest development of the Anthropic supply chain risk controversy, a U.S. federal appeals court on April 9 denied Anthropic's emergency motion to block the Trump administration's blacklisting of its AI technology. The court expedited oral arguments for May 19 but ruled the balance of equities favors the government, marking a setback following a prior district court injunction.

Rapporté par l'IA

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

The UK Department for Science, Innovation and Technology has proposed that Anthropic expand its London office and pursue a potential dual stock listing, according to a Financial Times report. This effort follows a dispute between the San Francisco-based AI company and the US Department of Defense. Officials aim to attract Anthropic amid ongoing tensions.

Rapporté par l'IA

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser