Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic poursuit le département de la Défense américain en justice pour sa désignation comme risque dans la chaîne d'approvisionnement

Image générée par IA

Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.

Le conflit entre Anthropic et le département de la Défense des États-Unis s'est intensifié fin février 2026, lorsque le Pentagone a demandé un accès plus large au modèle d'IA Claude d'Anthropic pour « tous les usages légaux ». Anthropic a refusé de supprimer les garde-fous interdisant son utilisation pour la surveillance domestique de masse ou les systèmes d'armes totalement autonomes sans supervision humaine. Le 26 février, le PDG Dario Amodei a déclaré que l'IA puissante permet d'assembler des données dispersées en profils complets d'individus à grande échelle, soulignant les préoccupations de l'entreprise »n»nLe 27 février, après qu'Anthropic a refusé de modifier ses conditions, le secrétaire à la Défense Pete Hegseth a menacé de désigner l'entreprise comme un risque pour la chaîne d'approvisionnement et d'annuler son contrat de 200 millions de dollars. Le président Donald Trump a ensuite ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic. Le Pentagone a formalisé la désignation fin du mois dernier, incitant Anthropic à intenter un procès le 9 mars devant un tribunal fédéral. La plainte décrit ces actions comme une « campagne de représailles sans précédent et illégale », affirmant que « la Constitution n'autorise pas le gouvernement à user de son immense pouvoir pour punir une entreprise pour son discours protégé » »n»nLes responsables du Pentagone soutiennent que la question est caduque, les lois actuelles interdisant une telle surveillance et le département n'ayant aucun plan pour des armes autonomes. Cependant, des experts comme Hamza Chaudhry du Future of Life Institute l'ont qualifié de « vide réel en matière de gouvernance » et d'appel à l'action pour le Congrès afin d'adopter des réglementations claires. Greg Nojeim du Center for Democracy and Technology a noté que les modèles d'IA « ne sont pas assez fiables » pour des armes totalement autonomes, critiquant le Pentagone pour avoir rejeté les conseils d'experts. »n»nEn réponse, le Pentagone a conclu un accord avec OpenAI, qui incluait des dispositions contre la surveillance domestique des personnes américaines. Le PDG d'OpenAI Sam Altman a confirmé que l'outil ne serait pas utilisé par les agences de renseignement. Plus de 30 employés d'OpenAI et de Google, y compris le scientifique en chef de Google DeepMind Jeff Dean, ont déposé un mémoire d'amicus soutenant Anthropic le 9 mars. Malgré la querelle, Anthropic continue de fournir ses modèles à l'armée à un coût nominal, y compris pour une utilisation dans la guerre en cours en Iran. Amodei a souligné l'engagement de l'entreprise envers la sécurité nationale tout en poursuivant la résolution légale.

Ce que les gens disent

Les discussions sur X soutiennent majoritairement la plainte d'Anthropic, considérant la désignation de risque pour la chaîne d'approvisionnement par le DoD comme un excès de pouvoir de représailles pour avoir refusé l'utilisation de l'IA dans la surveillance de masse et les armes autonomes. Les critiques la qualifient d'abus de pouvoir contre une entreprise américaine, tandis que les journalistes détaillent les revendications relatives à la liberté d'expression et aux garanties procédurales. Des voix sceptiques questionnent l'application aux contractants. Les réactions mettent en lumière les limites éthiques de l'IA et les précédents potentiels.

Articles connexes

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Image générée par IA

Pentagon designates Anthropic a ‘supply chain risk’ after dispute over military use limits for Claude AI

Rapporté par l'IA Image générée par IA Vérifié par des faits

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Rapporté par l'IA

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

In the latest development of the Anthropic supply chain risk controversy, a U.S. federal appeals court on April 9 denied Anthropic's emergency motion to block the Trump administration's blacklisting of its AI technology. The court expedited oral arguments for May 19 but ruled the balance of equities favors the government, marking a setback following a prior district court injunction.

Rapporté par l'IA

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Anthropic's Claude AI app has hit the top spot on Apple's App Store free apps chart, overtaking ChatGPT and Gemini, fueled by public support following President Trump's federal ban on the tool over Anthropic's AI safety refusals.

Rapporté par l'IA

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser