Une cour d'appel refuse de suspendre l'inscription d'Anthropic sur la liste noire des risques liés à la chaîne d'approvisionnement

Dans le dernier développement de la controverse sur les risques liés à la chaîne d'approvisionnement d'Anthropic, une cour d'appel fédérale américaine a rejeté le 9 avril la motion d'urgence d'Anthropic visant à bloquer le placement de sa technologie d'IA sur liste noire par l'administration Trump. Le tribunal a accéléré le calendrier des plaidoiries pour le 19 mai, mais a jugé que la balance des intérêts penche en faveur du gouvernement, marquant un revers après une précédente injonction d'un tribunal de district.

La Cour d'appel des États-Unis pour le circuit du district de Columbia a refusé de suspendre la désignation par l'administration Trump d'Anthropic comme un risque pour la sécurité nationale lié à la chaîne d'approvisionnement. Un panel de trois juges nommés par des républicains, dont Gregory Katsas et Neomi Rao, nommés par Trump, a reconnu le préjudice irréparable potentiel pour Anthropic — tel que des pertes financières et des allégations de représailles pour des discours protégés par le Premier amendement — mais a conclu à l'insuffisance des preuves concernant une entrave à la liberté d'expression et a donné la priorité aux intérêts du gouvernement dans un contexte de conflit militaire.

La liste noire découle du refus d'Anthropic d'autoriser ses modèles d'IA Claude pour la guerre autonome et la surveillance de masse des citoyens américains. Le président Trump a ordonné aux agences fédérales de cesser d'utiliser cette technologie, et le secrétaire à la Défense, Pete Hegseth, a interdit aux entrepreneurs militaires toute relation avec l'entreprise. Le procureur général par intérim, Todd Blanche, a qualifié la décision de « victoire retentissante pour la préparation militaire », soulignant l'autorité présidentielle sur le département de la Guerre (anciennement département de la Défense).

Cette décision fait suite à l'injonction préliminaire de la juge fédérale Rita Lin du 27 mars en Californie, qui avait bloqué la désignation initiale du 4 mars, la jugeant arbitraire et constitutive de représailles au titre du Premier amendement ; l'administration a fait appel devant le 9e circuit. Anthropic s'est déclarée confiante dans le fait que les futures décisions de justice déclareront la liste noire illégale et a réitéré son engagement en faveur d'une IA sûre. La Computer & Communications Industry Association a averti que les failles procédurales dans de telles désignations pourraient nuire à l'innovation américaine.

Fait partie de la série « Controverse sur les risques liés à la chaîne d'approvisionnement d'Anthropic ».

Articles connexes

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic sues US defense department over supply chain risk designation

Rapporté par l'IA Image générée par IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Rapporté par l'IA Vérifié par des faits

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporté par l'IA

Hundreds of employees from Google and OpenAI have signed an open letter in solidarity with Anthropic, urging their companies to resist Pentagon demands for unrestricted military use of AI models. The letter opposes uses involving domestic mass surveillance and autonomous killing without human oversight. This comes amid threats from US Defense Secretary Pete Hegseth to label Anthropic a supply chain risk.

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

Rapporté par l'IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser