En federal domare i San Francisco utfärdade den 27 mars 2026 ett interimistiskt beslut som blockerar Trump-administrationens stämpling av AI-företaget Anthropic som en risk för den militära leveranskedjan – en etikett som applicerades tre veckor tidigare mitt under tvister om företagets begränsningar för hur deras Claude-AI-modeller får användas för militära ändamål, såsom autonoma vapen.
Efter Pentagons beslut den 4 mars att klassificera Anthropic som en "risk för leveranskedjan" – vilket grundade sig i misslyckade förhandlingar om avtalsmässiga restriktioner för användningen av Claude AI i helautomatiska vapen och massövervakning – slog den amerikanska distriktsdomaren Rita Lin fast att åtgärden var godtycklig, nyckfull och ett "klassiskt fall av repressalier enligt det första författningstillägget".
Stämplingen skulle ha begränsat statliga kontrakt med AI-företaget från Silicon Valley, som fokuserar på säkerhetsspärrar. I sitt 42-sidiga domslut stoppade Lin verkställigheten i väntan på ytterligare prövning.
Krigsminister Emil Michael kritiserade beslutet på sociala medier och menade att det innehöll faktafel, var framstressat mitt under en konflikt och undergrävde presidentens roll som överbefälhavare, och kallade det för "en skam". Krigsminister Pete Hegseth hade tidigare argumenterat för att leverantörer inte kan diktera hur militären använder teknologi.
Anthropics vd Dario Amodei hade tidigare aviserat planer på att juridiskt utmana stämplingen. Domare Lin har tidigare erfarenhet av liknande fall, bland annat genom att blockera nedskärningar av anslag till UCLA med hänvisning till oro för antisemitism.
Domslutet belyser de pågående spänningarna mellan AI-företagens etiska gränser och kraven på nationell säkerhet. Detta är en del av serien "Anthropic supply chain risk controversy".