Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic poursuit le département de la Défense américain en justice pour sa désignation comme risque dans la chaîne d'approvisionnement

Image générée par IA

Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.

Le conflit entre Anthropic et le département de la Défense des États-Unis s'est intensifié fin février 2026, lorsque le Pentagone a demandé un accès plus large au modèle d'IA Claude d'Anthropic pour « tous les usages légaux ». Anthropic a refusé de supprimer les garde-fous interdisant son utilisation pour la surveillance domestique de masse ou les systèmes d'armes totalement autonomes sans supervision humaine. Le 26 février, le PDG Dario Amodei a déclaré que l'IA puissante permet d'assembler des données dispersées en profils complets d'individus à grande échelle, soulignant les préoccupations de l'entreprise »n»nLe 27 février, après qu'Anthropic a refusé de modifier ses conditions, le secrétaire à la Défense Pete Hegseth a menacé de désigner l'entreprise comme un risque pour la chaîne d'approvisionnement et d'annuler son contrat de 200 millions de dollars. Le président Donald Trump a ensuite ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic. Le Pentagone a formalisé la désignation fin du mois dernier, incitant Anthropic à intenter un procès le 9 mars devant un tribunal fédéral. La plainte décrit ces actions comme une « campagne de représailles sans précédent et illégale », affirmant que « la Constitution n'autorise pas le gouvernement à user de son immense pouvoir pour punir une entreprise pour son discours protégé » »n»nLes responsables du Pentagone soutiennent que la question est caduque, les lois actuelles interdisant une telle surveillance et le département n'ayant aucun plan pour des armes autonomes. Cependant, des experts comme Hamza Chaudhry du Future of Life Institute l'ont qualifié de « vide réel en matière de gouvernance » et d'appel à l'action pour le Congrès afin d'adopter des réglementations claires. Greg Nojeim du Center for Democracy and Technology a noté que les modèles d'IA « ne sont pas assez fiables » pour des armes totalement autonomes, critiquant le Pentagone pour avoir rejeté les conseils d'experts. »n»nEn réponse, le Pentagone a conclu un accord avec OpenAI, qui incluait des dispositions contre la surveillance domestique des personnes américaines. Le PDG d'OpenAI Sam Altman a confirmé que l'outil ne serait pas utilisé par les agences de renseignement. Plus de 30 employés d'OpenAI et de Google, y compris le scientifique en chef de Google DeepMind Jeff Dean, ont déposé un mémoire d'amicus soutenant Anthropic le 9 mars. Malgré la querelle, Anthropic continue de fournir ses modèles à l'armée à un coût nominal, y compris pour une utilisation dans la guerre en cours en Iran. Amodei a souligné l'engagement de l'entreprise envers la sécurité nationale tout en poursuivant la résolution légale.

Ce que les gens disent

Les discussions sur X soutiennent majoritairement la plainte d'Anthropic, considérant la désignation de risque pour la chaîne d'approvisionnement par le DoD comme un excès de pouvoir de représailles pour avoir refusé l'utilisation de l'IA dans la surveillance de masse et les armes autonomes. Les critiques la qualifient d'abus de pouvoir contre une entreprise américaine, tandis que les journalistes détaillent les revendications relatives à la liberté d'expression et aux garanties procédurales. Des voix sceptiques questionnent l'application aux contractants. Les réactions mettent en lumière les limites éthiques de l'IA et les précédents potentiels.

Articles connexes

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Image générée par IA

Le Pentagone désigne Anthropic comme un « risque pour la chaîne d’approvisionnement » après un différend sur les limites d’utilisation militaire pour Claude ai

Rapporté par l'IA Image générée par IA Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

Après l’interdiction fédérale la semaine dernière de ses outils d’IA, Anthropic a repris les négociations avec le département de la Défense des États-Unis pour éviter une désignation de risque pour la chaîne d’approvisionnement. Parallèlement, l’accord militaire parallèle d’OpenAI fait l’objet de critiques de la part des employés, des rivaux et du PDG d’Anthropic, Dario Amodei, qui l’a accusé de déclarations trompeuses dans un mémo divulgué.

Rapporté par l'IA

Le PDG d'Anthropic, Dario Amodei, a déclaré que l'entreprise ne se pliera pas à la demande du Pentagone de supprimer les garde-fous de ses modèles d'IA, malgré les menaces d'exclusion des systèmes de défense. Le différend porte sur la prévention de l'utilisation de l'IA dans des armes autonomes et la surveillance intérieure. L'entreprise, qui dispose d'un contrat de 200 millions de dollars avec le Département de la Défense, souligne son engagement envers une utilisation éthique de l'IA.

L'application Claude AI d'Anthropic a atteint la première place du classement des applications gratuites de l'App Store d'Apple, dépassant ChatGPT et Gemini, portée par le soutien du public après l'interdiction fédérale du président Trump sur l'outil en raison des refus d'Anthropic en matière de sécurité IA.

Rapporté par l'IA

Les investisseurs mondiaux remettent en question les rendements des dépenses massives des entreprises technologiques en intelligence artificielle. Christopher Wood, de Jefferies, identifie Anthropic comme un acteur remarquable dans le paysage en évolution de l'IA. Le boom de l'IA a dopé les actions américaines, mais les inquiétudes croissent quant à sa durabilité.

L'outil d'IA Claude Cowork d'Anthropic a provoqué une forte baisse des actions d'Infosys, TCS et d'autres entreprises SaaS. Ces firmes ont perdu des centaines de milliards de dollars de valeur boursière. Le déclencheur est l'essor de l'IA.

Rapporté par l'IA

En 2025, les agents IA sont devenus centraux dans les progrès de l'intelligence artificielle, permettant aux systèmes d'utiliser des outils et d'agir de manière autonome. De la théorie aux applications quotidiennes, ils ont transformé les interactions humaines avec les grands modèles de langage. Pourtant, ils ont aussi apporté des défis comme des risques de sécurité et des lacunes réglementaires.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser