Federal domare blockerar Pentagon-stämpling av Anthropic som "risk för leveranskedjan"

En federal domare i San Francisco utfärdade den 27 mars 2026 ett interimistiskt beslut som blockerar Trump-administrationens stämpling av AI-företaget Anthropic som en risk för den militära leveranskedjan – en etikett som applicerades tre veckor tidigare mitt under tvister om företagets begränsningar för hur deras Claude-AI-modeller får användas för militära ändamål, såsom autonoma vapen.

Efter Pentagons beslut den 4 mars att klassificera Anthropic som en "risk för leveranskedjan" – vilket grundade sig i misslyckade förhandlingar om avtalsmässiga restriktioner för användningen av Claude AI i helautomatiska vapen och massövervakning – slog den amerikanska distriktsdomaren Rita Lin fast att åtgärden var godtycklig, nyckfull och ett "klassiskt fall av repressalier enligt det första författningstillägget".

Stämplingen skulle ha begränsat statliga kontrakt med AI-företaget från Silicon Valley, som fokuserar på säkerhetsspärrar. I sitt 42-sidiga domslut stoppade Lin verkställigheten i väntan på ytterligare prövning.

Krigsminister Emil Michael kritiserade beslutet på sociala medier och menade att det innehöll faktafel, var framstressat mitt under en konflikt och undergrävde presidentens roll som överbefälhavare, och kallade det för "en skam". Krigsminister Pete Hegseth hade tidigare argumenterat för att leverantörer inte kan diktera hur militären använder teknologi.

Anthropics vd Dario Amodei hade tidigare aviserat planer på att juridiskt utmana stämplingen. Domare Lin har tidigare erfarenhet av liknande fall, bland annat genom att blockera nedskärningar av anslag till UCLA med hänvisning till oro för antisemitism.

Domslutet belyser de pågående spänningarna mellan AI-företagens etiska gränser och kraven på nationell säkerhet. Detta är en del av serien "Anthropic supply chain risk controversy".

Relaterade artiklar

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Bild genererad av AI

Pentagon klassar Anthropic som ’supply chain risk’ efter dispyt om militära användningsbegränsningar för Claude AI

Rapporterad av AI Bild genererad av AI Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

Anthropic har väckt en federal stämning mot USA:s försvarsdepartement och utmanar dess senaste klassning av AI-företaget som en leveranskedjerisk. Tvisten härrör från en avtalsdispyten kring användningen av Anthropics Claude AI för militära syften, inklusive restriktioner mot massövervakning och autonoma vapen. Företaget hävdar att klassningen kränker yttrandefrihet och rätten till tillbörlig rättsprocess.

Rapporterad av AI

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Hundratals anställda på Google och OpenAI har skrivit under ett öppet brev i solidaritet med Anthropic och uppmanar sina företag att stå emot Pentagons krav på obegränsad militär användning av AI-modeller. Brevet motsätter sig användningar som inhemsk massövervakning och autonom dödande utan mänsklig översyn. Detta sker mitt i hot från USA:s försvarsminister Pete Hegseth om att beteckna Anthropic som en risk i försörjningskedjan.

Rapporterad av AI

Anthropic har lanserat Anthropic Institute, ett nytt forskningsinitiativ, och öppnat sitt första kontor för offentlig politik i Washington, DC, i år. Dessa steg följer AI-företagets senaste federala stämning mot USA:s regering gällande försvarsdepartementets klassificering av leveranskedjerisk kopplad till en tvist om kontrakt.

President Donald Trump har undertecknat ett exekutivt dekret som syftar till att skapa ett nationellt ramverk för reglering av artificiell intelligens. Åtgärden söker begränsa delstater från att stifta egna AI-lagar genom att upprätta federala tillsyns mekanismer. Detta inkluderar straffåtgärder mot delstater som antar motstridig lagstiftning.

Rapporterad av AI

Elon Musks xAI förlorade sin begäran om preliminärt förbud mot Kaliforniens Assembly Bill 2013, som kräver att AI-företag avslöjar detaljer om träningsdata. USA:s distriktsdomare Jesus Bernal slog fast att xAI inte lyckades visa att lagen avslöjar handelshemligheter eller orsakar irreparabel skada. Företaget måste nu följa lagen, som trädde i kraft i januari, medan rättsprocessen fortsätter.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj