Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Bild genererad av AI

Pentagon pressar Anthropic att försvaga AI-säkerhetsåtaganden

Bild genererad av AI

USA:s försvarsminister Pete Hegseth har hotat Anthropic med svåra straff om inte företaget ger militären obegränsad tillgång till sin Claude AI-modell. Ultimatet kom under ett möte med VD Dario Amodei i Washington på tisdagen, samtidigt som Anthropic meddelade att man mildrar sin Responsible Scaling Policy. Förändringarna går från strikta säkerhetströsklar till mer flexibla riskbedömningar mitt i konkurrenstryck.

Den 25 februari 2026 kallade USA:s försvarsminister Pete Hegseth Anthropics VD Dario Amodei till Washington för diskussioner om företagets AI-användningspolicyer. Hegseth krävde att Anthropic tillåter sin Claude-modell för alla lagliga militära tillämpningar, inklusive potentiellt känsliga områden som massövervakning och dödliga uppdrag utan direkt mänsklig översyn. Anthropic har uttryckt oro över tillförlitligheten hos nuvarande AI-modeller för sådana användningar och erbjudit istället att tillämpa standardanvändningspolicyer på statliga kontrakt samtidigt som man förbjuder tillämpningar som autonoma vapen eller inhemsk övervakning utan mänsklig inblandning. Hegseth satte en deadline till fredag den 27 februari och varnade för att brist på efterlevnad kan leda till åberopande av Defense Production Act, utpekande av Anthropic som leveranskedjerisk och uteslutning från försvarsdepartementets kontrakt. Företaget har ett kontrakt värt 200 miljoner dollar med Pentagon, och Claude har använts i hemliga operationer, såsom fångsten av Venezuelas ledare Nicolás Maduro i januari 2026 i samarbete med Palantir. Samma dag meddelade Anthropic ändringar i sin Responsible Scaling Policy och övergav hårda åtaganden om att stoppa modellträning om inte säkerhet kunde garanteras i förväg. Den uppdaterade policyn antar en relativ approach med fokus på riskrapporter och frontier-säkerhetsvägkartor för transparens. Anthropic hänvisade till en 'kollektiv handlingsproblematik' i den konkurrensutsatta AI-miljön och noterade att ensidiga pauser skulle missgynna ansvariga utvecklare medan andra avancerar utan åtgärder. Chefsvetenskapsmannen Jared Kaplan uppgav: 'Vi kände att det inte faktiskt skulle hjälpa någon om vi slutade träna AI-modeller', och belyste industrins snabba takt. Chris Painter vid METR beskrev skiftet som förståeligt men varnade för en potentiell 'groddkokningseffekt', där flexibla säkerhetsåtgärder kan erodera över tid. Anthropic hävdar att man deltar i goda förhandlingar för att stödja nationell säkerhet ansvarsfullt. Pentagon förhandlar också med konkurrenter som OpenAI, Google och xAI för att integrera deras teknologier i militära system.

Vad folk säger

X-användare uttrycker övervägande oro och kritik mot försvarsministern Pete Hegseths ultimatum till Anthropic och stöder företagets skyddsåtgärder mot AI för autonoma vapen och massövervakning. Högengagemangs-inlägg beskriver hot om åberopande av Defense Production Act och noterar sambandet med Anthropics mildring av Responsible Scaling Policy. Känslor inkluderar ilska över regeringstryck, skepsis mot säkerhetsåtaganden och neutral rapportering från journalister.

Relaterade artiklar

President Trump signs executive order banning Anthropic AI from federal agencies amid Pentagon dispute, illustrated with banned AI screens, Pentagon, and courthouse symbols.
Bild genererad av AI

Trump orders US agencies to halt use of Anthropic AI technology

Rapporterad av AI Bild genererad av AI

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Rapporterad av AI

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Anthropic har utökat sin minnesfunktion till gratisnivån för sin AI-chattbot Claude, vilket låter användare hänvisa till tidigare konversationer. Företaget har också släppt ett verktyg för att importera minnen från konkurrerande chatbots som ChatGPT och Gemini. Denna uppdatering sammanfaller med Claudes popularitetsökning mitt i en dispyt med USA:s försvarsdepartement.

Rapporterad av AI

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

Anthropics officiella Git MCP-server innehöll oroande säkerhetshål som kunde kedjas samman för allvarliga konsekvenser. Problemen belystes i en nylig TechRadar-rapport. Detaljer framkom om potentiella risker för AI-företagets infrastruktur.

Rapporterad av AI

Anthropics senaste uppdatering av sin CoWork-plattform har lett till betydande marknadsmässiga reaktioner i mjukvaruindustrin. USA:s mjukvarusektor utsattes för en omfattande säljoffensiv och förlorade över 1 biljon dollar i värde, enligt Fortune. Denna utveckling belyser osäkerheten bland investerare kring AI-native arbetsflöden och deras inverkan på SaaS-aktier.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj