Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.
Förhandlingar mellan Pentagon och Anthropic har eskalerat de senaste veckorna då försvarsmyndigheter sökt kontraktsvillkor som tillåter militären att använda Anthropics AI-modeller för alla lagliga syften. nnEnligt The Daily Wire var Anthropic villigt att fortsätta ge tillgång till sina modeller men insisterade på två undantag: förbud mot användning i fullt autonoma vapensystem och förbud mot användning för massövervakning inom landet. Mediet rapporterade att Biden-administrationen accepterade dessa villkor i ett kontrakt 2024, men att Trump-administrationen öppnade frågan igen. nnEn högt uppsatt Pentagon-teknikfunktionär, Emil Michael – identifierad av The Daily Wire som Trump-administrationens biträdande minister som hanterar dispytens – kritiserade vad han beskrev som begränsningar inbäddade i tidigare avtal. ”Jag tittade på kontrakten och tänkte, herregud. Ni kan inte använda dem för att planera ett kinetiskt anfall. Ni kan inte använda deras AI-modell för att flytta en satellit”, sa han enligt The Daily Wire. Michael tillade att han ville ha ”användarvillkor” som han såg som förenliga med departementets uppdrag. nnThe Daily Wire rapporterade också att Anthropic föreslog begränsade undantag – såsom användning vid planering av drönarsvärmar eller svar på kinesiska hypersoniska missiler – men Michael sa att dessa undantag inte räckte till. Han uttryckte också oro för att policybaserade restriktioner kunde skapa operativa risker om en leverantör skulle avbryta tjänsten under ett uppdrag. nnDispytens kulminerade när Pentagon meddelade att man ”officiellt informerats Anthropics ledning om att företaget och dess produkter betraktas som en supply chain risk, med omedelbar verkan”, enligt en rapport från Associated Press som citerar ett Pentagonuttalande. nnAnthropics VD Dario Amodei sa att företaget inte anser att beteckningen är juridiskt hållbar och planerar att utmana den i domstol, enligt AP. I ett uttalande publicerat av Anthropic den 5 mars 2026 sa Amodei att företaget mottagit ett brev den 4 mars som bekräftar beteckningen och argumenterade för att åtgärdens praktiska omfattning är smal enligt den citerade lagen, och endast gäller användning av Claude ”som en direkt del av” krigsdepartementets kontrakt – inte för all kund användning. nnFörsvarsminister Pete Hegseth har offentligt argumenterat för att leverantörer inte bör kunna begränsa militärens lagliga användning av teknik, en syn som ekas i Pentagons uttalande till AP om att militären ”inte kommer att tillåta en leverantör att infoga sig i befälskedjan genom att begränsa den lagliga användningen av en kritisk förmåga och sätta våra krigare i riskzonen”. nnSeparat rapporterade The Daily Wire att Trump-administrationens AI-rådgivare David Sacks kritiserat vad han beskrev som Biden-erans band mellan AI-policy personal och Anthropic, och namngav tidigare Biden-tjänstemän Elizabeth Kelly och Benjamin Merkel som nu arbetar på företaget. The Daily Wire rapporterade också att Anthropic sagt sig ha utsett tidigare Trump-administrationstjänsteman Chris Liddell till sin styrelse. nnDen bredare juridiska och praktiska effekten av ”supply chain risk”-beteckningen är omstridd. Juridiska analytiker och kritiker har argumenterat för att den åberopade myndigheten är snävare än vissa offentliga påståenden om ett generellt förbud för entreprenörer att göra affärer med Anthropic, medan Anthropic sagt att Pentagons brev återspeglar en begränsad tillämpning knuten till specifika försvarskontrakt. nnI sin rapportering om dispytens sa AP att konfrontationen kretsar kring Anthropics insisterande på att dess teknik inte används för massövervakning av amerikaner eller fullt autonoma vapen – skyddsskenor som företaget menar är nödvändiga även om operativa beslut ska ligga hos militären. nn