I den senaste utvecklingen i kontroversen kring Anthropic och leveranskedjerisker avslog en amerikansk federal appellationsdomstol den 9 april Anthropics akuta yrkande om att blockera Trump-administrationens svartlistning av dess AI-teknik. Domstolen påskyndade muntliga förhandlingar till den 19 maj men slog fast att en avvägning av intressen väger till regeringens fördel, vilket innebär ett bakslag efter ett tidigare föreläggande från en distriktsdomstol.
USA:s appellationsdomstol för District of Columbia Circuit vägrade att stoppa Trump-administrationens klassificering av Anthropic som en nationell säkerhetsrisk i leveranskedjan. En panel bestående av tre republikanskt utnämnda domare, inklusive Trump-utnämnda Gregory Katsas och Neomi Rao, erkände risken för obotlig skada för Anthropic – såsom ekonomiska förluster och anklagelser om repressalier för yttranden skyddade av det första tillägget i konstitutionen – men fann otillräckliga bevis för tystnadskultur och prioriterade statens intressen under en militär konflikt. Svartlistningen härrör från Anthropics vägran att låta dess Claude AI-modeller användas för autonom krigföring och massövervakning av amerikaner. President Trump gav federala myndigheter i uppdrag att sluta använda tekniken, och försvarsminister Pete Hegseth förbjöd militära entreprenörer att göra affärer med företaget. Tillförordnade justitieminister Todd Blanche kallade beslutet en "enastående seger för militär beredskap" och betonade presidentens auktoritet över krigsdepartementet (tidigare försvarsdepartementet). Detta följer på den amerikanska distriktsdomaren Rita Lins preliminära föreläggande den 27 mars i Kalifornien, som blockerade den initiala klassificeringen från den 4 mars som godtycklig och som repressalier mot yttrandefriheten; administrationen överklagar till den nionde appellationsdomstolen. Anthropic uttryckte förtroende för framtida domstolsutslag som förklarar svartlistningen olaglig och upprepade sitt engagemang för säker AI. Computer & Communications Industry Association varnade för att procedurfel i sådana klassificeringar skulle kunna skada amerikansk innovation. En del av serien "Anthropic supply chain risk controversy".