Anthropic har väckt en federal stämning mot USA:s försvarsdepartement och utmanar dess senaste klassning av AI-företaget som en leveranskedjerisk. Tvisten härrör från en avtalsdispyten kring användningen av Anthropics Claude AI för militära syften, inklusive restriktioner mot massövervakning och autonoma vapen. Företaget hävdar att klassningen kränker yttrandefrihet och rätten till tillbörlig rättsprocess.
Konflikten mellan Anthropic och USA:s försvarsdepartement eskalerade i slutet av februari 2026, när Pentagonen efterfrågade bredare tillgång till Anthropics Claude AI-modell för ”alla lagliga ändamål”. Anthropic vägrade att ta bort skyddsåtgärder som förbjuder användning för massövervakning inom landet eller fullt autonoma vapensystem utan mänsklig översyn. Den 26 februari framhöll vd:n Dario Amodei att kraftfull AI möjliggör sammanfogning av utspridd data till heltäckande profiler av individer i massiv skala, vilket underströk företagets farhågor. By February 27, efter att Anthropic vägrat ändra sina villkor, hotade försvarsminister Pete Hegseth med att klassa företaget som leveranskedjerisk och säga upp det 200 miljoner dollar stora kontraktet. President Donald Trump beordrade därefter alla federala myndigheter att sluta använda Anthropics teknologi. Pentagonen formaliserade klassningen i slutet av förra månaden, vilket fick Anthropic att väcka talan den 9 mars i federal domstol. Stämningen beskriver åtgärderna som en ”hittills osedd och olaglig kampanj för vedergällning” och hävdar att ”konstitutionen inte tillåter regeringen att utöva sin enorma makt för att straffa ett företag för dess skyddade yttrande”. Pentagon-tjänstemän menar att frågan är irrelevant, eftersom gällande lagar förbjuder sådan övervakning och departementet inte har några planer på autonoma vapen. Experter som Hamza Chaudhry vid Future of Life Institute kallade det dock ett ”riktigt styrningsvakuum” och en väckarklocka för kongressen att stifta tydliga regleringar. Greg Nojeim vid Center for Democracy and Technology noterade att AI-modeller ”inte är tillräckligt tillförlitliga” för fullt autonoma vapen och kritiserade Pentagonen för att avvisa expertråd. Som svar slöt Pentagonen ett avtal med OpenAI, som innefattade bestämmelser mot inhemsk övervakning av amerikanska personer. OpenAI:s vd Sam Altman bekräftade att verktyget inte skulle användas av underrättelsetjänster. Mer än 30 anställda från OpenAI och Google, inklusive Google DeepMinds chefsforskare Jeff Dean, lämnade in en amicus brief till stöd för Anthropic den 9 mars. Trots tvisten fortsätter Anthropic att leverera sina modeller till militären till symbolisk kostnad, inklusive användning i det pågående kriget i Iran. Amodei betonade företagets engagemang för nationell säkerhet under rättslig prövning.