Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Bild genererad av AI

Pentagon klassar Anthropic som ’supply chain risk’ efter dispyt om militära användningsbegränsningar för Claude AI

Bild genererad av AI
Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

Förhandlingar mellan Pentagon och Anthropic har eskalerat de senaste veckorna då försvarsmyndigheter sökt kontraktsvillkor som tillåter militären att använda Anthropics AI-modeller för alla lagliga syften.  nnEnligt The Daily Wire var Anthropic villigt att fortsätta ge tillgång till sina modeller men insisterade på två undantag: förbud mot användning i fullt autonoma vapensystem och förbud mot användning för massövervakning inom landet. Mediet rapporterade att Biden-administrationen accepterade dessa villkor i ett kontrakt 2024, men att Trump-administrationen öppnade frågan igen.  nnEn högt uppsatt Pentagon-teknikfunktionär, Emil Michael – identifierad av The Daily Wire som Trump-administrationens biträdande minister som hanterar dispytens – kritiserade vad han beskrev som begränsningar inbäddade i tidigare avtal. ”Jag tittade på kontrakten och tänkte, herregud. Ni kan inte använda dem för att planera ett kinetiskt anfall. Ni kan inte använda deras AI-modell för att flytta en satellit”, sa han enligt The Daily Wire. Michael tillade att han ville ha ”användarvillkor” som han såg som förenliga med departementets uppdrag.  nnThe Daily Wire rapporterade också att Anthropic föreslog begränsade undantag – såsom användning vid planering av drönarsvärmar eller svar på kinesiska hypersoniska missiler – men Michael sa att dessa undantag inte räckte till. Han uttryckte också oro för att policybaserade restriktioner kunde skapa operativa risker om en leverantör skulle avbryta tjänsten under ett uppdrag.  nnDispytens kulminerade när Pentagon meddelade att man ”officiellt informerats Anthropics ledning om att företaget och dess produkter betraktas som en supply chain risk, med omedelbar verkan”, enligt en rapport från Associated Press som citerar ett Pentagonuttalande.  nnAnthropics VD Dario Amodei sa att företaget inte anser att beteckningen är juridiskt hållbar och planerar att utmana den i domstol, enligt AP. I ett uttalande publicerat av Anthropic den 5 mars 2026 sa Amodei att företaget mottagit ett brev den 4 mars som bekräftar beteckningen och argumenterade för att åtgärdens praktiska omfattning är smal enligt den citerade lagen, och endast gäller användning av Claude ”som en direkt del av” krigsdepartementets kontrakt – inte för all kund användning.  nnFörsvarsminister Pete Hegseth har offentligt argumenterat för att leverantörer inte bör kunna begränsa militärens lagliga användning av teknik, en syn som ekas i Pentagons uttalande till AP om att militären ”inte kommer att tillåta en leverantör att infoga sig i befälskedjan genom att begränsa den lagliga användningen av en kritisk förmåga och sätta våra krigare i riskzonen”.  nnSeparat rapporterade The Daily Wire att Trump-administrationens AI-rådgivare David Sacks kritiserat vad han beskrev som Biden-erans band mellan AI-policy personal och Anthropic, och namngav tidigare Biden-tjänstemän Elizabeth Kelly och Benjamin Merkel som nu arbetar på företaget. The Daily Wire rapporterade också att Anthropic sagt sig ha utsett tidigare Trump-administrationstjänsteman Chris Liddell till sin styrelse.  nnDen bredare juridiska och praktiska effekten av ”supply chain risk”-beteckningen är omstridd. Juridiska analytiker och kritiker har argumenterat för att den åberopade myndigheten är snävare än vissa offentliga påståenden om ett generellt förbud för entreprenörer att göra affärer med Anthropic, medan Anthropic sagt att Pentagons brev återspeglar en begränsad tillämpning knuten till specifika försvarskontrakt.  nnI sin rapportering om dispytens sa AP att konfrontationen kretsar kring Anthropics insisterande på att dess teknik inte används för massövervakning av amerikaner eller fullt autonoma vapen – skyddsskenor som företaget menar är nödvändiga även om operativa beslut ska ligga hos militären.  nn

Relaterade artiklar

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Bild genererad av AI

Anthropic sues US defense department over supply chain risk designation

Rapporterad av AI Bild genererad av AI

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Rapporterad av AI

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

In the latest development of the Anthropic supply chain risk controversy, a U.S. federal appeals court on April 9 denied Anthropic's emergency motion to block the Trump administration's blacklisting of its AI technology. The court expedited oral arguments for May 19 but ruled the balance of equities favors the government, marking a setback following a prior district court injunction.

Rapporterad av AI

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

The UK Department for Science, Innovation and Technology has proposed that Anthropic expand its London office and pursue a potential dual stock listing, according to a Financial Times report. This effort follows a dispute between the San Francisco-based AI company and the US Department of Defense. Officials aim to attract Anthropic amid ongoing tensions.

Rapporterad av AI

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj