Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Bild genererad av AI

Pentagon klassar Anthropic som ’supply chain risk’ efter dispyt om militära användningsbegränsningar för Claude AI

Bild genererad av AI
Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

Förhandlingar mellan Pentagon och Anthropic har eskalerat de senaste veckorna då försvarsmyndigheter sökt kontraktsvillkor som tillåter militären att använda Anthropics AI-modeller för alla lagliga syften.  nnEnligt The Daily Wire var Anthropic villigt att fortsätta ge tillgång till sina modeller men insisterade på två undantag: förbud mot användning i fullt autonoma vapensystem och förbud mot användning för massövervakning inom landet. Mediet rapporterade att Biden-administrationen accepterade dessa villkor i ett kontrakt 2024, men att Trump-administrationen öppnade frågan igen.  nnEn högt uppsatt Pentagon-teknikfunktionär, Emil Michael – identifierad av The Daily Wire som Trump-administrationens biträdande minister som hanterar dispytens – kritiserade vad han beskrev som begränsningar inbäddade i tidigare avtal. ”Jag tittade på kontrakten och tänkte, herregud. Ni kan inte använda dem för att planera ett kinetiskt anfall. Ni kan inte använda deras AI-modell för att flytta en satellit”, sa han enligt The Daily Wire. Michael tillade att han ville ha ”användarvillkor” som han såg som förenliga med departementets uppdrag.  nnThe Daily Wire rapporterade också att Anthropic föreslog begränsade undantag – såsom användning vid planering av drönarsvärmar eller svar på kinesiska hypersoniska missiler – men Michael sa att dessa undantag inte räckte till. Han uttryckte också oro för att policybaserade restriktioner kunde skapa operativa risker om en leverantör skulle avbryta tjänsten under ett uppdrag.  nnDispytens kulminerade när Pentagon meddelade att man ”officiellt informerats Anthropics ledning om att företaget och dess produkter betraktas som en supply chain risk, med omedelbar verkan”, enligt en rapport från Associated Press som citerar ett Pentagonuttalande.  nnAnthropics VD Dario Amodei sa att företaget inte anser att beteckningen är juridiskt hållbar och planerar att utmana den i domstol, enligt AP. I ett uttalande publicerat av Anthropic den 5 mars 2026 sa Amodei att företaget mottagit ett brev den 4 mars som bekräftar beteckningen och argumenterade för att åtgärdens praktiska omfattning är smal enligt den citerade lagen, och endast gäller användning av Claude ”som en direkt del av” krigsdepartementets kontrakt – inte för all kund användning.  nnFörsvarsminister Pete Hegseth har offentligt argumenterat för att leverantörer inte bör kunna begränsa militärens lagliga användning av teknik, en syn som ekas i Pentagons uttalande till AP om att militären ”inte kommer att tillåta en leverantör att infoga sig i befälskedjan genom att begränsa den lagliga användningen av en kritisk förmåga och sätta våra krigare i riskzonen”.  nnSeparat rapporterade The Daily Wire att Trump-administrationens AI-rådgivare David Sacks kritiserat vad han beskrev som Biden-erans band mellan AI-policy personal och Anthropic, och namngav tidigare Biden-tjänstemän Elizabeth Kelly och Benjamin Merkel som nu arbetar på företaget. The Daily Wire rapporterade också att Anthropic sagt sig ha utsett tidigare Trump-administrationstjänsteman Chris Liddell till sin styrelse.  nnDen bredare juridiska och praktiska effekten av ”supply chain risk”-beteckningen är omstridd. Juridiska analytiker och kritiker har argumenterat för att den åberopade myndigheten är snävare än vissa offentliga påståenden om ett generellt förbud för entreprenörer att göra affärer med Anthropic, medan Anthropic sagt att Pentagons brev återspeglar en begränsad tillämpning knuten till specifika försvarskontrakt.  nnI sin rapportering om dispytens sa AP att konfrontationen kretsar kring Anthropics insisterande på att dess teknik inte används för massövervakning av amerikaner eller fullt autonoma vapen – skyddsskenor som företaget menar är nödvändiga även om operativa beslut ska ligga hos militären.  nn

Relaterade artiklar

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Bild genererad av AI

Anthropic stämmer USA:s försvarsdepartement för leveranskedjeriskklassning

Rapporterad av AI Bild genererad av AI

Anthropic har väckt en federal stämning mot USA:s försvarsdepartement och utmanar dess senaste klassning av AI-företaget som en leveranskedjerisk. Tvisten härrör från en avtalsdispyten kring användningen av Anthropics Claude AI för militära syften, inklusive restriktioner mot massövervakning och autonoma vapen. Företaget hävdar att klassningen kränker yttrandefrihet och rätten till tillbörlig rättsprocess.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporterad av AI

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Anthropics Claude AI-app har nått förstaplatsen på Apples App Store gratisappar-lista och passerat ChatGPT och Gemini, driven av folkligt stöd efter president Trumps federala förbud mot verktyget på grund av Anthropics vägran kring AI-säkerhet.

Rapporterad av AI

Globala investerare ifrågasätter avkastningen på de massiva techutgifterna inom artificiell intelligens. Christopher Wood från Jefferies pekar ut Anthropic som en utstickare i det växande AI-landskapet. AI-boomen har lyft USA-aktier, men oro växer kring dess hållbarhet.

Anthropic har meddelat att dess AI-chattbot Claude förblir fri från annonser, i skarp kontrast till rivalen OpenAIs senaste beslut att testa annonser i ChatGPT. Företaget lanserade en Super Bowl-kampanj som hånar AI-assistenter som avbryter samtal med produktförsäljning. Detta drag belyser de växande spänningarna i den konkurrensutsatta AI-landskapet.

Rapporterad av AI

Anthropic's Claude Cowork AI tool has caused a sharp decline in stocks of Infosys, TCS, and other SaaS companies. These firms lost hundreds of billions of dollars in market value. The trigger is the rise of AI.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj