Une juge fédérale bloque la désignation d'Anthropic comme « risque pour la chaîne d'approvisionnement » par le Pentagone

Une juge fédérale de San Francisco a émis une injonction préliminaire le 27 mars 2026, bloquant la désignation par l'administration Trump de l'entreprise d'IA Anthropic comme risque pour la chaîne d'approvisionnement militaire—un label appliqué trois semaines plus tôt dans un contexte de désaccords sur les limites imposées par l'entreprise aux capacités de son IA Claude pour des usages militaires tels que les armes autonomes.

Suite à la désignation par le Pentagone le 4 mars d'Anthropic comme « risque pour la chaîne d'approvisionnement »—découlant de l'échec des négociations sur les restrictions contractuelles concernant l'utilisation de l'IA Claude pour des armes entièrement autonomes et la surveillance de masse—la juge de district américaine Rita Lin a qualifié cette mesure d'arbitraire, capricieuse et d'« acte de représailles classique au titre du premier amendement ».

Cette désignation aurait restreint les contrats gouvernementaux avec l'entreprise d'IA de la Silicon Valley, qui met l'accent sur les garde-fous en matière de sécurité. Dans son ordonnance de 42 pages, la juge Lin a suspendu cette mesure dans l'attente d'un examen approfondi.

Le sous-secrétaire à la Guerre Emil Michael a critiqué la décision sur les réseaux sociaux, affirmant qu'elle contenait des erreurs factuelles, qu'elle avait été prise dans la précipitation face au conflit et qu'elle sapait le rôle de commandant en chef du président, la qualifiant de « honte ». Le secrétaire à la Guerre Pete Hegseth avait précédemment soutenu que les fournisseurs ne pouvaient pas dicter l'utilisation militaire de la technologie.

Le PDG d'Anthropic, Dario Amodei, avait fait part de son intention de contester légalement cette désignation. La juge Lin possède une expérience préalable dans des affaires similaires, ayant notamment bloqué des coupes budgétaires à l'UCLA en raison de préoccupations liées à l'antisémitisme.

La décision souligne les tensions persistantes entre les limites éthiques des entreprises d'IA et les exigences de sécurité nationale. Cet article fait partie de la série « Anthropic supply chain risk controversy ».

Articles connexes

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Image générée par IA

Le Pentagone désigne Anthropic comme un « risque pour la chaîne d’approvisionnement » après un différend sur les limites d’utilisation militaire pour Claude ai

Rapporté par l'IA Image générée par IA Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.

Rapporté par l'IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Des centaines d'employés de Google et OpenAI ont signé une lettre ouverte en solidarité avec Anthropic, exhortant leurs entreprises à résister aux exigences du Pentagone pour un usage militaire sans restriction des modèles d'IA. La lettre s'oppose aux usages impliquant une surveillance de masse domestique et des tueries autonomes sans supervision humaine. Cela survient au milieu de menaces du secrétaire à la Défense américain Pete Hegseth de qualifier Anthropic de risque pour la chaîne d'approvisionnement.

Rapporté par l'IA

Anthropic a lancé l’Anthropic Institute, une nouvelle initiative de recherche, et ouvert son premier bureau de politique publique à Washington, DC, ce printemps. Ces mesures font suite au récent procès fédéral intenté par l’entreprise d’IA contre le gouvernement américain concernant une désignation de risque dans la chaîne d’approvisionnement du Département de la Défense liée à un différend contractuel.

xAI d'Elon Musk a perdu sa demande d'injonction préliminaire visant à bloquer l'Assembly Bill 2013 de Californie, qui oblige les entreprises d'IA à divulguer les détails de leurs données d'entraînement. Le juge du district américain Jesus Bernal a statué que xAI n'avait pas démontré que la loi révèle des secrets commerciaux ou cause un préjudice irréparable. L'entreprise doit désormais se conformer à la loi, en vigueur depuis janvier, tandis que le procès se poursuit.

Rapporté par l'IA

The Trump administration has released a National AI Legislative Framework to unify federal AI rules, address national security concerns, and counter Beijing's growing dominance in the sector. It argues that state laws should not govern areas better suited to the federal government or contradict US strategy for global AI leadership. The White House looks forward to working with Congress to turn it into legislation.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser