Pentagon may sever ties with Anthropic over AI safeguards

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

The potential rift between the Pentagon and Anthropic highlights tensions in AI development for military purposes. According to reports, the U.S. Department of Defense seeks to integrate advanced AI models into warfighting applications. However, Anthropic has expressed firm reservations, emphasizing the need for strict boundaries around the use of fully autonomous weapons and extensive domestic surveillance programs.

Anthropic's position underscores its commitment to ethical AI deployment, refusing to support military applications that could cross these lines. The company, known for its Claude language model, prioritizes safety measures that the Pentagon's plans appear to challenge. No official confirmation of the severance has been issued, but the disagreement points to broader debates on AI governance in defense contexts.

This development, reported on February 16, 2026, reflects ongoing scrutiny of how AI technologies are regulated in sensitive sectors.

Relaterade artiklar

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Bild genererad av AI

Pentagon bestrider Anthropics begränsningar av Claudes militära användning när avtalsförhandlingarna går trögt

Rapporterad av AI Bild genererad av AI Faktagranskad

Efter att Anthropics VD Dario Amodei i slutet av februari sagt att företaget inte skulle tillåta att dess Claude-modell användes för massövervakning i hemmet eller för helt autonoma vapen, sa ledande Pentagon-tjänstemän att de inte har för avsikt att använda AI för övervakning i hemmet och insisterar på att privata företag inte kan sätta bindande gränser för hur den amerikanska militären använder AI-verktyg.

USA:s försvarsminister Pete Hegseth har hotat Anthropic med svåra straff om inte företaget ger militären obegränsad tillgång till sin Claude AI-modell. Ultimatet kom under ett möte med VD Dario Amodei i Washington på tisdagen, samtidigt som Anthropic meddelade att man mildrar sin Responsible Scaling Policy. Förändringarna går från strikta säkerhetströsklar till mer flexibla riskbedömningar mitt i konkurrenstryck.

Rapporterad av AI Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporterad av AI

Anthropic har begränsat åtkomsten till sin AI-modell Claude Mythos Preview på grund av dess överlägsna förmåga att identifiera och utnyttja programvarusårbarheter, samtidigt som de lanserar Project Glasswing – ett konsortium med över 45 teknikföretag, inklusive Apple, Google och Microsoft – för att gemensamt åtgärda brister och stärka försvaret. Tillkännagivandet följer på företagets nyligen inträffade dataläckor.

Anthropic meddelade på onsdagen lanseringen av Claude Managed Agents, en ny produkt som syftar till att förenkla skapandet och driftsättningen av AI-agenter för företag. Verktyget ger utvecklare färdig infrastruktur för att bygga autonoma AI-system. Det adresserar ett centralt hinder för att automatisera arbetsuppgifter mitt under företagets snabba tillväxt inom företagssektorn.

Rapporterad av AI

Det brittiska departementet för vetenskap, innovation och teknik har föreslagit att Anthropic expanderar sitt London-kontor och överväger en potentiell dubbelnotering på börsen, enligt en rapport från Financial Times. Detta initiativ följer en tvist mellan det San Francisco-baserade AI-företaget och det amerikanska försvarsdepartementet. Tjänstemän siktar på att locka till sig Anthropic mitt under pågående spänningar.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj