Une juge fédérale de San Francisco a émis une injonction préliminaire le 27 mars 2026, bloquant la désignation par l'administration Trump de l'entreprise d'IA Anthropic comme risque pour la chaîne d'approvisionnement militaire—un label appliqué trois semaines plus tôt dans un contexte de désaccords sur les limites imposées par l'entreprise aux capacités de son IA Claude pour des usages militaires tels que les armes autonomes.
Suite à la désignation par le Pentagone le 4 mars d'Anthropic comme « risque pour la chaîne d'approvisionnement »—découlant de l'échec des négociations sur les restrictions contractuelles concernant l'utilisation de l'IA Claude pour des armes entièrement autonomes et la surveillance de masse—la juge de district américaine Rita Lin a qualifié cette mesure d'arbitraire, capricieuse et d'« acte de représailles classique au titre du premier amendement ».
Cette désignation aurait restreint les contrats gouvernementaux avec l'entreprise d'IA de la Silicon Valley, qui met l'accent sur les garde-fous en matière de sécurité. Dans son ordonnance de 42 pages, la juge Lin a suspendu cette mesure dans l'attente d'un examen approfondi.
Le sous-secrétaire à la Guerre Emil Michael a critiqué la décision sur les réseaux sociaux, affirmant qu'elle contenait des erreurs factuelles, qu'elle avait été prise dans la précipitation face au conflit et qu'elle sapait le rôle de commandant en chef du président, la qualifiant de « honte ». Le secrétaire à la Guerre Pete Hegseth avait précédemment soutenu que les fournisseurs ne pouvaient pas dicter l'utilisation militaire de la technologie.
Le PDG d'Anthropic, Dario Amodei, avait fait part de son intention de contester légalement cette désignation. La juge Lin possède une expérience préalable dans des affaires similaires, ayant notamment bloqué des coupes budgétaires à l'UCLA en raison de préoccupations liées à l'antisémitisme.
La décision souligne les tensions persistantes entre les limites éthiques des entreprises d'IA et les exigences de sécurité nationale. Cet article fait partie de la série « Anthropic supply chain risk controversy ».