Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Bild genererad av AI

Pentagon pressar Anthropic att försvaga AI-säkerhetsåtaganden

Bild genererad av AI

USA:s försvarsminister Pete Hegseth har hotat Anthropic med svåra straff om inte företaget ger militären obegränsad tillgång till sin Claude AI-modell. Ultimatet kom under ett möte med VD Dario Amodei i Washington på tisdagen, samtidigt som Anthropic meddelade att man mildrar sin Responsible Scaling Policy. Förändringarna går från strikta säkerhetströsklar till mer flexibla riskbedömningar mitt i konkurrenstryck.

Den 25 februari 2026 kallade USA:s försvarsminister Pete Hegseth Anthropics VD Dario Amodei till Washington för diskussioner om företagets AI-användningspolicyer. Hegseth krävde att Anthropic tillåter sin Claude-modell för alla lagliga militära tillämpningar, inklusive potentiellt känsliga områden som massövervakning och dödliga uppdrag utan direkt mänsklig översyn. Anthropic har uttryckt oro över tillförlitligheten hos nuvarande AI-modeller för sådana användningar och erbjudit istället att tillämpa standardanvändningspolicyer på statliga kontrakt samtidigt som man förbjuder tillämpningar som autonoma vapen eller inhemsk övervakning utan mänsklig inblandning. Hegseth satte en deadline till fredag den 27 februari och varnade för att brist på efterlevnad kan leda till åberopande av Defense Production Act, utpekande av Anthropic som leveranskedjerisk och uteslutning från försvarsdepartementets kontrakt. Företaget har ett kontrakt värt 200 miljoner dollar med Pentagon, och Claude har använts i hemliga operationer, såsom fångsten av Venezuelas ledare Nicolás Maduro i januari 2026 i samarbete med Palantir. Samma dag meddelade Anthropic ändringar i sin Responsible Scaling Policy och övergav hårda åtaganden om att stoppa modellträning om inte säkerhet kunde garanteras i förväg. Den uppdaterade policyn antar en relativ approach med fokus på riskrapporter och frontier-säkerhetsvägkartor för transparens. Anthropic hänvisade till en 'kollektiv handlingsproblematik' i den konkurrensutsatta AI-miljön och noterade att ensidiga pauser skulle missgynna ansvariga utvecklare medan andra avancerar utan åtgärder. Chefsvetenskapsmannen Jared Kaplan uppgav: 'Vi kände att det inte faktiskt skulle hjälpa någon om vi slutade träna AI-modeller', och belyste industrins snabba takt. Chris Painter vid METR beskrev skiftet som förståeligt men varnade för en potentiell 'groddkokningseffekt', där flexibla säkerhetsåtgärder kan erodera över tid. Anthropic hävdar att man deltar i goda förhandlingar för att stödja nationell säkerhet ansvarsfullt. Pentagon förhandlar också med konkurrenter som OpenAI, Google och xAI för att integrera deras teknologier i militära system.

Vad folk säger

X-användare uttrycker övervägande oro och kritik mot försvarsministern Pete Hegseths ultimatum till Anthropic och stöder företagets skyddsåtgärder mot AI för autonoma vapen och massövervakning. Högengagemangs-inlägg beskriver hot om åberopande av Defense Production Act och noterar sambandet med Anthropics mildring av Responsible Scaling Policy. Känslor inkluderar ilska över regeringstryck, skepsis mot säkerhetsåtaganden och neutral rapportering från journalister.

Relaterade artiklar

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Bild genererad av AI

Pentagon disputes Anthropic limits on Claude’s military use as contract talks strain

Rapporterad av AI Bild genererad av AI Faktagranskad

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Rapporterad av AI

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporterad av AI

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

Rapporterad av AI

Anthropic announced on Wednesday the launch of Claude Managed Agents, a new product aimed at simplifying the creation and deployment of AI agents for businesses. The tool provides developers with ready-made infrastructure to build autonomous AI systems. It addresses a key barrier in automating work tasks amid the company's rapid enterprise growth.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj