Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Bild genererad av AI

Anthropic stämmer USA:s försvarsdepartement för leveranskedjeriskklassning

Bild genererad av AI

Anthropic har väckt en federal stämning mot USA:s försvarsdepartement och utmanar dess senaste klassning av AI-företaget som en leveranskedjerisk. Tvisten härrör från en avtalsdispyten kring användningen av Anthropics Claude AI för militära syften, inklusive restriktioner mot massövervakning och autonoma vapen. Företaget hävdar att klassningen kränker yttrandefrihet och rätten till tillbörlig rättsprocess.

Konflikten mellan Anthropic och USA:s försvarsdepartement eskalerade i slutet av februari 2026, när Pentagonen efterfrågade bredare tillgång till Anthropics Claude AI-modell för ”alla lagliga ändamål”. Anthropic vägrade att ta bort skyddsåtgärder som förbjuder användning för massövervakning inom landet eller fullt autonoma vapensystem utan mänsklig översyn. Den 26 februari framhöll vd:n Dario Amodei att kraftfull AI möjliggör sammanfogning av utspridd data till heltäckande profiler av individer i massiv skala, vilket underströk företagets farhågor. By February 27, efter att Anthropic vägrat ändra sina villkor, hotade försvarsminister Pete Hegseth med att klassa företaget som leveranskedjerisk och säga upp det 200 miljoner dollar stora kontraktet. President Donald Trump beordrade därefter alla federala myndigheter att sluta använda Anthropics teknologi. Pentagonen formaliserade klassningen i slutet av förra månaden, vilket fick Anthropic att väcka talan den 9 mars i federal domstol. Stämningen beskriver åtgärderna som en ”hittills osedd och olaglig kampanj för vedergällning” och hävdar att ”konstitutionen inte tillåter regeringen att utöva sin enorma makt för att straffa ett företag för dess skyddade yttrande”. Pentagon-tjänstemän menar att frågan är irrelevant, eftersom gällande lagar förbjuder sådan övervakning och departementet inte har några planer på autonoma vapen. Experter som Hamza Chaudhry vid Future of Life Institute kallade det dock ett ”riktigt styrningsvakuum” och en väckarklocka för kongressen att stifta tydliga regleringar. Greg Nojeim vid Center for Democracy and Technology noterade att AI-modeller ”inte är tillräckligt tillförlitliga” för fullt autonoma vapen och kritiserade Pentagonen för att avvisa expertråd. Som svar slöt Pentagonen ett avtal med OpenAI, som innefattade bestämmelser mot inhemsk övervakning av amerikanska personer. OpenAI:s vd Sam Altman bekräftade att verktyget inte skulle användas av underrättelsetjänster. Mer än 30 anställda från OpenAI och Google, inklusive Google DeepMinds chefsforskare Jeff Dean, lämnade in en amicus brief till stöd för Anthropic den 9 mars. Trots tvisten fortsätter Anthropic att leverera sina modeller till militären till symbolisk kostnad, inklusive användning i det pågående kriget i Iran. Amodei betonade företagets engagemang för nationell säkerhet under rättslig prövning.

Vad folk säger

Diskussioner på X stöder övervägande Anthropics stämning och betraktar försvarsdepartementets leveranskedjeriskklassning som hämndartad överbefälsning för vägran att använda AI i massövervakning och autonoma vapen. Kritiker kallar det ett maktmissbruk mot ett amerikanskt företag, medan journalister belyser kraven på yttrandefrihet och tillbörlig rättsprocess. Skeptiska röster ifrågasätter verkställigheten mot kontraktörer. Reaktionerna framhäver etiska gränser för AI och potentiella prejudikat.

Relaterade artiklar

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Bild genererad av AI

Pentagon klassar Anthropic som ’supply chain risk’ efter dispyt om militära användningsbegränsningar för Claude AI

Rapporterad av AI Bild genererad av AI Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

Efter förra veckans federala förbud mot dess AI-verktyg har Anthropic återupptagit förhandlingar med USA:s försvarsdepartement för att undvika en beteckning som leveranskedjerisk. Samtidigt utsätts OpenAI:s parallella militäravtal för kritik från anställda, konkurrenter och Anthropic-vd:n Dario Amodei, som anklagade det för vilseledande påståenden i ett läckt memo.

Rapporterad av AI

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Anthropics Claude AI-app har nått förstaplatsen på Apples App Store gratisappar-lista och passerat ChatGPT och Gemini, driven av folkligt stöd efter president Trumps federala förbud mot verktyget på grund av Anthropics vägran kring AI-säkerhet.

Rapporterad av AI

Globala investerare ifrågasätter avkastningen på de massiva techutgifterna inom artificiell intelligens. Christopher Wood från Jefferies pekar ut Anthropic som en utstickare i det växande AI-landskapet. AI-boomen har lyft USA-aktier, men oro växer kring dess hållbarhet.

Anthropic's Claude Cowork AI tool has caused a sharp decline in stocks of Infosys, TCS, and other SaaS companies. These firms lost hundreds of billions of dollars in market value. The trigger is the rise of AI.

Rapporterad av AI

In 2025, AI agents became central to artificial intelligence progress, enabling systems to use tools and act autonomously. From theory to everyday applications, they transformed human interactions with large language models. Yet, they also brought challenges like security risks and regulatory gaps.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj