Appellationsdomstol nekar Anthropic kvarstadsyrkande mitt under tvist om svartlistning på grund av leveranskedjerisker

I den senaste utvecklingen i kontroversen kring Anthropic och leveranskedjerisker avslog en amerikansk federal appellationsdomstol den 9 april Anthropics akuta yrkande om att blockera Trump-administrationens svartlistning av dess AI-teknik. Domstolen påskyndade muntliga förhandlingar till den 19 maj men slog fast att en avvägning av intressen väger till regeringens fördel, vilket innebär ett bakslag efter ett tidigare föreläggande från en distriktsdomstol.

USA:s appellationsdomstol för District of Columbia Circuit vägrade att stoppa Trump-administrationens klassificering av Anthropic som en nationell säkerhetsrisk i leveranskedjan. En panel bestående av tre republikanskt utnämnda domare, inklusive Trump-utnämnda Gregory Katsas och Neomi Rao, erkände risken för obotlig skada för Anthropic – såsom ekonomiska förluster och anklagelser om repressalier för yttranden skyddade av det första tillägget i konstitutionen – men fann otillräckliga bevis för tystnadskultur och prioriterade statens intressen under en militär konflikt. Svartlistningen härrör från Anthropics vägran att låta dess Claude AI-modeller användas för autonom krigföring och massövervakning av amerikaner. President Trump gav federala myndigheter i uppdrag att sluta använda tekniken, och försvarsminister Pete Hegseth förbjöd militära entreprenörer att göra affärer med företaget. Tillförordnade justitieminister Todd Blanche kallade beslutet en "enastående seger för militär beredskap" och betonade presidentens auktoritet över krigsdepartementet (tidigare försvarsdepartementet). Detta följer på den amerikanska distriktsdomaren Rita Lins preliminära föreläggande den 27 mars i Kalifornien, som blockerade den initiala klassificeringen från den 4 mars som godtycklig och som repressalier mot yttrandefriheten; administrationen överklagar till den nionde appellationsdomstolen. Anthropic uttryckte förtroende för framtida domstolsutslag som förklarar svartlistningen olaglig och upprepade sitt engagemang för säker AI. Computer & Communications Industry Association varnade för att procedurfel i sådana klassificeringar skulle kunna skada amerikansk innovation. En del av serien "Anthropic supply chain risk controversy".

Relaterade artiklar

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Bild genererad av AI

Anthropic stämmer USA:s försvarsdepartement för leveranskedjeriskklassning

Rapporterad av AI Bild genererad av AI

Anthropic har väckt en federal stämning mot USA:s försvarsdepartement och utmanar dess senaste klassning av AI-företaget som en leveranskedjerisk. Tvisten härrör från en avtalsdispyten kring användningen av Anthropics Claude AI för militära syften, inklusive restriktioner mot massövervakning och autonoma vapen. Företaget hävdar att klassningen kränker yttrandefrihet och rätten till tillbörlig rättsprocess.

En federal domare i San Francisco utfärdade den 27 mars 2026 ett interimistiskt beslut som blockerar Trump-administrationens stämpling av AI-företaget Anthropic som en risk för den militära leveranskedjan – en etikett som applicerades tre veckor tidigare mitt under tvister om företagets begränsningar för hur deras Claude-AI-modeller får användas för militära ändamål, såsom autonoma vapen.

Rapporterad av AI Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporterad av AI

Hundratals anställda på Google och OpenAI har skrivit under ett öppet brev i solidaritet med Anthropic och uppmanar sina företag att stå emot Pentagons krav på obegränsad militär användning av AI-modeller. Brevet motsätter sig användningar som inhemsk massövervakning och autonom dödande utan mänsklig översyn. Detta sker mitt i hot från USA:s försvarsminister Pete Hegseth om att beteckna Anthropic som en risk i försörjningskedjan.

Anthropic har begränsat åtkomsten till sin AI-modell Claude Mythos Preview på grund av dess överlägsna förmåga att identifiera och utnyttja programvarusårbarheter, samtidigt som de lanserar Project Glasswing – ett konsortium med över 45 teknikföretag, inklusive Apple, Google och Microsoft – för att gemensamt åtgärda brister och stärka försvaret. Tillkännagivandet följer på företagets nyligen inträffade dataläckor.

Rapporterad av AI

Anthropics senaste uppdatering av sin CoWork-plattform har lett till betydande marknadsmässiga reaktioner i mjukvaruindustrin. USA:s mjukvarusektor utsattes för en omfattande säljoffensiv och förlorade över 1 biljon dollar i värde, enligt Fortune. Denna utveckling belyser osäkerheten bland investerare kring AI-native arbetsflöden och deras inverkan på SaaS-aktier.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj