Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Image générée par IA

Le Pentagone désigne Anthropic comme un « risque pour la chaîne d’approvisionnement » après un différend sur les limites d’utilisation militaire pour Claude ai

Image générée par IA
Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

Les négociations entre le Pentagone et Anthropic se sont intensifiées ces dernières semaines alors que les responsables de la défense cherchaient des termes contractuels permettant à l’armée d’utiliser les modèles d’IA d’Anthropic à toutes les fins légales »nnSelon The Daily Wire, Anthropic était disposée à continuer de fournir l’accès à ses modèles mais insistait sur deux exclusions : interdire l’utilisation dans des systèmes d’armes pleinement autonomes et interdire l’utilisation pour une surveillance domestique de masse. Le média a rapporté que l’administration Biden avait accepté ces termes dans un contrat de 2024, mais que l’administration Trump avait rouvert la question.nnUn haut responsable technologique du Pentagone, Emil Michael — identifié par The Daily Wire comme le sous-secrétaire de l’administration Trump supervisant le différend —, a critiqué ce qu’il a décrit comme des contraintes intégrées dans les accords antérieurs. « J’ai examiné les contrats et je me suis dit, mon Dieu. On ne peut pas les utiliser pour planifier une frappe cinétique. On ne peut pas utiliser leur modèle d’IA pour déplacer un satellite », a-t-il déclaré, selon The Daily Wire. Michael a ajouté qu’il voulait des « conditions de service » qu’il jugeait compatibles avec la mission du département.nnThe Daily Wire a également rapporté qu’Anthropic avait proposé des exceptions limitées — telles que l’utilisation pour planifier un essaim de drones ou répondre à un missile hypersonique chinois —, mais Michael a déclaré que ces exclusions n’étaient pas suffisantes. Il a également exprimé des préoccupations selon lesquelles des restrictions basées sur des politiques pourraient créer un risque opérationnel si un fournisseur coupait le service en pleine mission.nnLe différend a culminé lorsque le Pentagone a déclaré qu’il avait « officiellement informé la direction d’Anthropic que la société et ses produits sont considérés comme un risque pour la chaîne d’approvisionnement, avec effet immédiat », selon un rapport de l’Associated Press citant un communiqué du Pentagone.nnLe PDG d’Anthropic, Dario Amodei, a déclaré que l’entreprise ne juge pas cette désignation juridiquement valable et prévoit de la contester en justice, a rapporté l’AP. Dans un communiqué publié par Anthropic le 5 mars 2026, Amodei a indiqué que l’entreprise avait reçu une lettre le 4 mars confirmant la désignation et a argué que la portée pratique de cette mesure est étroite en vertu de la loi citée, s’appliquant uniquement à l’utilisation de Claude « comme partie directe de » les contrats du Département de la Guerre — et non à l’ensemble des usages clients.nnLe secrétaire à la Défense Pete Hegseth a publiquement argué que les fournisseurs ne devraient pas pouvoir restreindre l’utilisation légale de la technologie par l’armée, une opinion reprise dans le communiqué du Pentagone à l’AP selon lequel l’armée « ne permettra pas à un fournisseur de s’insérer dans la chaîne de commandement en restreignant l’utilisation légale d’une capacité critique et en mettant nos combattants en danger ».nnSéparément, The Daily Wire a rapporté que le conseiller en IA de l’administration Trump, David Sacks, a critiqué ce qu’il a décrit comme des liens à l’époque Biden entre le personnel de politique en IA et Anthropic, et a nommé les anciens responsables Biden Elizabeth Kelly et Benjamin Merkel comme désormais employés par la société. The Daily Wire a également rapporté qu’Anthropic avait nommé l’ancien responsable de l’administration Trump Chris Liddell à son conseil d’administration.nnL’impact juridique et pratique plus large de la désignation de « risque pour la chaîne d’approvisionnement » reste contesté. Des analystes juridiques et des critiques ont argué que l’autorité invoquée est plus étroite que certaines affirmations publiques sur une interdiction générale pour les contractants de faire des affaires avec Anthropic, tandis qu’Anthropic a déclaré que la lettre du Pentagone reflète une application limitée liée à des contrats de défense spécifiques.nnDans son reportage sur le différend, l’AP a indiqué que la confrontation porte sur l’insistance d’Anthropic pour que sa technologie ne soit pas utilisée pour une surveillance de masse des Américains ou des armes pleinement autonomes — des garde-fous que l’entreprise juge nécessaires même si elle affirme que la prise de décision opérationnelle doit rester du ressort de l’armée.

Articles connexes

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic poursuit le département de la Défense américain en justice pour sa désignation comme risque dans la chaîne d'approvisionnement

Rapporté par l'IA Image générée par IA

Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporté par l'IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

L'application Claude AI d'Anthropic a atteint la première place du classement des applications gratuites de l'App Store d'Apple, dépassant ChatGPT et Gemini, portée par le soutien du public après l'interdiction fédérale du président Trump sur l'outil en raison des refus d'Anthropic en matière de sécurité IA.

Rapporté par l'IA

Les investisseurs mondiaux remettent en question les rendements des dépenses massives des entreprises technologiques en intelligence artificielle. Christopher Wood, de Jefferies, identifie Anthropic comme un acteur remarquable dans le paysage en évolution de l'IA. Le boom de l'IA a dopé les actions américaines, mais les inquiétudes croissent quant à sa durabilité.

Anthropic a annoncé que son chatbot IA Claude restera sans publicité, en net contraste avec la décision récente de son rival OpenAI de tester des publicités dans ChatGPT. L'entreprise a lancé une campagne publicitaire lors du Super Bowl moquant les assistants IA qui interrompent les conversations avec des pitches produits. Cette initiative met en lumière les tensions croissantes dans le paysage concurrentiel de l'IA.

Rapporté par l'IA

L'outil d'IA Claude Cowork d'Anthropic a provoqué une forte baisse des actions d'Infosys, TCS et d'autres entreprises SaaS. Ces firmes ont perdu des centaines de milliards de dollars de valeur boursière. Le déclencheur est l'essor de l'IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser