Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Bild genererad av AI

Anthropic stämmer USA:s försvarsdepartement för leveranskedjeriskklassning

Bild genererad av AI

Anthropic har väckt en federal stämning mot USA:s försvarsdepartement och utmanar dess senaste klassning av AI-företaget som en leveranskedjerisk. Tvisten härrör från en avtalsdispyten kring användningen av Anthropics Claude AI för militära syften, inklusive restriktioner mot massövervakning och autonoma vapen. Företaget hävdar att klassningen kränker yttrandefrihet och rätten till tillbörlig rättsprocess.

Konflikten mellan Anthropic och USA:s försvarsdepartement eskalerade i slutet av februari 2026, när Pentagonen efterfrågade bredare tillgång till Anthropics Claude AI-modell för ”alla lagliga ändamål”. Anthropic vägrade att ta bort skyddsåtgärder som förbjuder användning för massövervakning inom landet eller fullt autonoma vapensystem utan mänsklig översyn. Den 26 februari framhöll vd:n Dario Amodei att kraftfull AI möjliggör sammanfogning av utspridd data till heltäckande profiler av individer i massiv skala, vilket underströk företagets farhågor. By February 27, efter att Anthropic vägrat ändra sina villkor, hotade försvarsminister Pete Hegseth med att klassa företaget som leveranskedjerisk och säga upp det 200 miljoner dollar stora kontraktet. President Donald Trump beordrade därefter alla federala myndigheter att sluta använda Anthropics teknologi. Pentagonen formaliserade klassningen i slutet av förra månaden, vilket fick Anthropic att väcka talan den 9 mars i federal domstol. Stämningen beskriver åtgärderna som en ”hittills osedd och olaglig kampanj för vedergällning” och hävdar att ”konstitutionen inte tillåter regeringen att utöva sin enorma makt för att straffa ett företag för dess skyddade yttrande”. Pentagon-tjänstemän menar att frågan är irrelevant, eftersom gällande lagar förbjuder sådan övervakning och departementet inte har några planer på autonoma vapen. Experter som Hamza Chaudhry vid Future of Life Institute kallade det dock ett ”riktigt styrningsvakuum” och en väckarklocka för kongressen att stifta tydliga regleringar. Greg Nojeim vid Center for Democracy and Technology noterade att AI-modeller ”inte är tillräckligt tillförlitliga” för fullt autonoma vapen och kritiserade Pentagonen för att avvisa expertråd. Som svar slöt Pentagonen ett avtal med OpenAI, som innefattade bestämmelser mot inhemsk övervakning av amerikanska personer. OpenAI:s vd Sam Altman bekräftade att verktyget inte skulle användas av underrättelsetjänster. Mer än 30 anställda från OpenAI och Google, inklusive Google DeepMinds chefsforskare Jeff Dean, lämnade in en amicus brief till stöd för Anthropic den 9 mars. Trots tvisten fortsätter Anthropic att leverera sina modeller till militären till symbolisk kostnad, inklusive användning i det pågående kriget i Iran. Amodei betonade företagets engagemang för nationell säkerhet under rättslig prövning.

Vad folk säger

Diskussioner på X stöder övervägande Anthropics stämning och betraktar försvarsdepartementets leveranskedjeriskklassning som hämndartad överbefälsning för vägran att använda AI i massövervakning och autonoma vapen. Kritiker kallar det ett maktmissbruk mot ett amerikanskt företag, medan journalister belyser kraven på yttrandefrihet och tillbörlig rättsprocess. Skeptiska röster ifrågasätter verkställigheten mot kontraktörer. Reaktionerna framhäver etiska gränser för AI och potentiella prejudikat.

Relaterade artiklar

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Bild genererad av AI

Pentagon designates Anthropic a ‘supply chain risk’ after dispute over military use limits for Claude AI

Rapporterad av AI Bild genererad av AI Faktagranskad

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Rapporterad av AI

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

In the latest development of the Anthropic supply chain risk controversy, a U.S. federal appeals court on April 9 denied Anthropic's emergency motion to block the Trump administration's blacklisting of its AI technology. The court expedited oral arguments for May 19 but ruled the balance of equities favors the government, marking a setback following a prior district court injunction.

Rapporterad av AI

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Anthropic's Claude AI app has hit the top spot on Apple's App Store free apps chart, overtaking ChatGPT and Gemini, fueled by public support following President Trump's federal ban on the tool over Anthropic's AI safety refusals.

Rapporterad av AI

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj