Dans le dernier développement de la controverse sur les risques liés à la chaîne d'approvisionnement d'Anthropic, une cour d'appel fédérale américaine a rejeté le 9 avril la motion d'urgence d'Anthropic visant à bloquer le placement de sa technologie d'IA sur liste noire par l'administration Trump. Le tribunal a accéléré le calendrier des plaidoiries pour le 19 mai, mais a jugé que la balance des intérêts penche en faveur du gouvernement, marquant un revers après une précédente injonction d'un tribunal de district.
La Cour d'appel des États-Unis pour le circuit du district de Columbia a refusé de suspendre la désignation par l'administration Trump d'Anthropic comme un risque pour la sécurité nationale lié à la chaîne d'approvisionnement. Un panel de trois juges nommés par des républicains, dont Gregory Katsas et Neomi Rao, nommés par Trump, a reconnu le préjudice irréparable potentiel pour Anthropic — tel que des pertes financières et des allégations de représailles pour des discours protégés par le Premier amendement — mais a conclu à l'insuffisance des preuves concernant une entrave à la liberté d'expression et a donné la priorité aux intérêts du gouvernement dans un contexte de conflit militaire.
La liste noire découle du refus d'Anthropic d'autoriser ses modèles d'IA Claude pour la guerre autonome et la surveillance de masse des citoyens américains. Le président Trump a ordonné aux agences fédérales de cesser d'utiliser cette technologie, et le secrétaire à la Défense, Pete Hegseth, a interdit aux entrepreneurs militaires toute relation avec l'entreprise. Le procureur général par intérim, Todd Blanche, a qualifié la décision de « victoire retentissante pour la préparation militaire », soulignant l'autorité présidentielle sur le département de la Guerre (anciennement département de la Défense).
Cette décision fait suite à l'injonction préliminaire de la juge fédérale Rita Lin du 27 mars en Californie, qui avait bloqué la désignation initiale du 4 mars, la jugeant arbitraire et constitutive de représailles au titre du Premier amendement ; l'administration a fait appel devant le 9e circuit. Anthropic s'est déclarée confiante dans le fait que les futures décisions de justice déclareront la liste noire illégale et a réitéré son engagement en faveur d'une IA sûre. La Computer & Communications Industry Association a averti que les failles procédurales dans de telles désignations pourraient nuire à l'innovation américaine.
Fait partie de la série « Controverse sur les risques liés à la chaîne d'approvisionnement d'Anthropic ».