Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Bild genererad av AI

Anthropic återupptar pentagonsamtal när OpenAI:s militäravtal möter motreaktioner

Bild genererad av AI

Efter förra veckans federala förbud mot dess AI-verktyg har Anthropic återupptagit förhandlingar med USA:s försvarsdepartement för att undvika en beteckning som leveranskedjerisk. Samtidigt utsätts OpenAI:s parallella militäravtal för kritik från anställda, konkurrenter och Anthropic-vd:n Dario Amodei, som anklagade det för vilseledande påståenden i ett läckt memo.

För att undvika att stämplas som en leveranskedjerisk – en beteckning som vanligtvis reserveras för utländska motståndare – har Anthropic återupptagit samtalen med Pentagon, enligt rapporter från Financial Times och Bloomberg den 5 mars 2026. Vd:n Dario Amodei förhandlar med biträdande försvarsminister för forskning och ingenjörsvetenskap Emil Michael, efter att ett tidigare kontrakt på 200 miljoner dollar från 2025 kollapsat på grund av formuleringar som förbjuder massövervakning. Amodei beskrev haveriet i ett memo till personalen: Departementet erbjöd att respektera Anthropics villkor om företaget tog bort en klausul om ”analys av bulkförvärvad data” – precis det övervakningsscenario som Anthropic ville blockera. Anthropic vägrade, vilket fick Pentagon att hota med avbrytande och riskbeteckningen. President Trump beordrade därefter federala myndigheter att sluta använda Anthropic-teknik den 28 februari, även om en sex månaders utfasning tillät fortsatt tillgång, inklusive för planering av ett flyganfall mot Iran. Amodei kallade OpenAI:s svar för ”rena lögner” i memot och skyllde en del av Anthropics problem på brist på ”diktatorstilad hyllning av Trump”, till skillnad från OpenAI-vd:n Sam Altman. OpenAI säkrade sitt eget avtal med försvarsdepartementet kort efter Anthropics misslyckande, med Altman som på X hävdade att han avrått från riskbeteckningen och föreslog att Anthropic borde ha accepterat liknande villkor. OpenAI ändrade senare sitt avtal för att förbjuda massövervakning av amerikaner. OpenAI-anställda kritiserade avtalet på ett allhandsmöte och pressade Altman på detaljer; han erkände intern slarvighet på sociala medier. Tidigare förbjöd OpenAI militär användning men tillät Pentagon-tester via Microsoft. Kontroversen lyfte Anthropics Claude till toppen av Apples lista över gratis appar. Del av serien om Anthropic–Pentagon AI-kontraktsdispyten.

Vad folk säger

Diskussioner på X fokuserar på att Anthropic återupptar samtal med Pentagon för att undvika en beteckning som leveranskedjerisk efter att ha vägrat ta bort AI-skydd mot övervakning och autonoma vapen. Dario Amodeis läckta memo anklagar OpenAI:s militäravtal för ”rena lögner” och ”säkerhetsteater”, vilket väckt motreaktioner inklusive användarbojkotter av ChatGPT och beröm för Anthropics etik. Känslor inkluderar stöd för AI-säkerhetsprinciper, kritik mot OpenAI:s hyckleri, neutral rapportering och skepsis mot regeringstryck.

Relaterade artiklar

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Bild genererad av AI

Anthropic sues US defense department over supply chain risk designation

Rapporterad av AI Bild genererad av AI

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Rapporterad av AI

US President Donald Trump has directed all federal agencies to immediately cease using Anthropic's AI tools amid a dispute over military applications. The move follows weeks of clashes between Anthropic and Pentagon officials regarding restrictions on AI for mass surveillance and autonomous weapons. A six-month phase-out period has been announced.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporterad av AI

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Rapporterad av AI

Caitlin Kalinowski, OpenAI's head of robotics, has resigned, citing insufficient deliberation on ethical guardrails in the company's recent deal with the Department of Defense. She expressed concerns over potential surveillance and autonomous weapons in a post on X. OpenAI acknowledged her departure and reiterated its commitments against domestic surveillance and lethal autonomous systems.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj