USA:s försvarsminister Pete Hegseth har hotat Anthropic med svåra straff om inte företaget ger militären obegränsad tillgång till sin Claude AI-modell. Ultimatet kom under ett möte med VD Dario Amodei i Washington på tisdagen, samtidigt som Anthropic meddelade att man mildrar sin Responsible Scaling Policy. Förändringarna går från strikta säkerhetströsklar till mer flexibla riskbedömningar mitt i konkurrenstryck.
Den 25 februari 2026 kallade USA:s försvarsminister Pete Hegseth Anthropics VD Dario Amodei till Washington för diskussioner om företagets AI-användningspolicyer. Hegseth krävde att Anthropic tillåter sin Claude-modell för alla lagliga militära tillämpningar, inklusive potentiellt känsliga områden som massövervakning och dödliga uppdrag utan direkt mänsklig översyn. Anthropic har uttryckt oro över tillförlitligheten hos nuvarande AI-modeller för sådana användningar och erbjudit istället att tillämpa standardanvändningspolicyer på statliga kontrakt samtidigt som man förbjuder tillämpningar som autonoma vapen eller inhemsk övervakning utan mänsklig inblandning. Hegseth satte en deadline till fredag den 27 februari och varnade för att brist på efterlevnad kan leda till åberopande av Defense Production Act, utpekande av Anthropic som leveranskedjerisk och uteslutning från försvarsdepartementets kontrakt. Företaget har ett kontrakt värt 200 miljoner dollar med Pentagon, och Claude har använts i hemliga operationer, såsom fångsten av Venezuelas ledare Nicolás Maduro i januari 2026 i samarbete med Palantir. Samma dag meddelade Anthropic ändringar i sin Responsible Scaling Policy och övergav hårda åtaganden om att stoppa modellträning om inte säkerhet kunde garanteras i förväg. Den uppdaterade policyn antar en relativ approach med fokus på riskrapporter och frontier-säkerhetsvägkartor för transparens. Anthropic hänvisade till en 'kollektiv handlingsproblematik' i den konkurrensutsatta AI-miljön och noterade att ensidiga pauser skulle missgynna ansvariga utvecklare medan andra avancerar utan åtgärder. Chefsvetenskapsmannen Jared Kaplan uppgav: 'Vi kände att det inte faktiskt skulle hjälpa någon om vi slutade träna AI-modeller', och belyste industrins snabba takt. Chris Painter vid METR beskrev skiftet som förståeligt men varnade för en potentiell 'groddkokningseffekt', där flexibla säkerhetsåtgärder kan erodera över tid. Anthropic hävdar att man deltar i goda förhandlingar för att stödja nationell säkerhet ansvarsfullt. Pentagon förhandlar också med konkurrenter som OpenAI, Google och xAI för att integrera deras teknologier i militära system.