Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Bild genererad av AI

Pentagon bestrider Anthropics begränsningar av Claudes militära användning när avtalsförhandlingarna går trögt

Bild genererad av AI
Faktagranskad

Efter att Anthropics VD Dario Amodei i slutet av februari sagt att företaget inte skulle tillåta att dess Claude-modell användes för massövervakning i hemmet eller för helt autonoma vapen, sa ledande Pentagon-tjänstemän att de inte har för avsikt att använda AI för övervakning i hemmet och insisterar på att privata företag inte kan sätta bindande gränser för hur den amerikanska militären använder AI-verktyg.

I juli förra året tillkännagav Pentagons chef för digital och artificiell intelligens, Doug Matty, kontraktstilldelningar på upp till 200 miljoner dollar vardera till fyra teknikföretag - Anthropic, Google, OpenAI och xAI - för att tillhandahålla avancerade AI-modeller för försvarsdepartementets uppdrag. Matty sa att avdelningen avsåg att påskynda antagandet av kommersiell AI för "Joint mission essential tasks" i "warfighting domain", men Pentagon släppte få operativa detaljer med hänvisning till nationell säkerhet.

De relativt ogenomskinliga utmärkelserna väckte ny uppmärksamhet i slutet av februari, då Anthropic sa att det insisterade på gränser för Claude i en "smal uppsättning fall". I ett uttalande den 26 februari sa Amodei att han starkt stödde användningen av AI för att hjälpa till att försvara USA och andra demokratier, men hävdade att vissa tillämpningar kan undergräva demokratiska värden - inklusive "massövervakning i hemmet" och "helt autonoma vapen", som han beskrev som självstyrda stridsdrönare.

Högt uppsatta tjänstemän på försvarsdepartementet svarade med att motsätta sig både premissen och företagets inflytande. Enligt rapportering som citeras av The Nation sa Pentagon-tjänstemän att de inte tänker använda AI för inhemsk övervakning och att obemannade vapensystem kommer att förbli under mänsklig tillsyn. Men de hävdade också att entreprenörer inte borde kunna införa sina egna villkor för medborgerliga friheter i Pentagons verksamhet. Emil Michael, försvarsministerns undersekreterare för forskning och teknik, citerades för att ha sagt: "Vi kommer inte att låta något BigTech-företag bestämma över amerikanernas medborgerliga fri- och rättigheter."

The Nation rapporterade att Michael under förhandlingarna också tog upp en separat fråga om huruvida Anthropic skulle motsätta sig användningen av Claude i kärnvapenrelaterade uppdrag som missilförsvar, och att Amodei inte motsatte sig den användningen.

Tvisten har belyst en bredare spänning mellan Pentagons drivkraft för att integrera generativ AI i intelligens, inriktning och vapenutveckling - och de skyddsräcken som AI-företag säger att de behöver för att förhindra missbruk. Nationen pekade på långvariga försvarsdepartementets ansträngningar som Project Maven, som började med att använda AI för att hjälpa till att analysera drönarvideo för potentiella mål, och DARPA: s initiativ Collaborative Operations in Denied Environment (CODE), som har arbetat med autonomi för grupper av drönare som arbetar enligt förinställda regler.

Pentagons officiella policy för autonomi beskrivs i DoD-direktiv 3000.09, som anger att autonoma och semi-autonoma vapen ska utformas så att befälhavare och operatörer kan utöva "lämpliga nivåer av mänskligt omdöme över användningen av våld". Kritiker har hävdat att policyns flexibilitet fortfarande lämnar utrymme för autonomi som avsevärt kan minska den mänskliga kontrollen i realtid.

I takt med att AI blir mer integrerat i militär planering och militära operationer understryker konflikten mellan Anthropic och Pentagon en olöst fråga som står i centrum för den amerikanska militärens AI-expansion: hur man ska förena ett snabbt införande av kommersiella system med krav på verkställbara gränser för inhemsk övervakning och delegering av dödligt våld till maskiner.

Vad folk säger

X-diskussionerna avslöjar en splittring i Pentagon-Anthropic-tvisten om Claude AI-gränser. Anhängare av Anthropic berömmer deras etiska hållning mot massövervakning och autonoma vapen och ser Pentagons svartlistning som överdrivet. Kritikerna hävdar att privata företag inte kan införa begränsningar för militär användning och att det räcker med enkla kontraktsvillkor. Neutrala inlägg beskriver dödläget, tidsfrister och juridiska upptrappningar i detalj och kontrasterar mot OpenAI:s efterlevnad. Konton med högt engagemang från journalister och analytiker belyser spänningarna mellan nationell säkerhet och AI-säkerhet.

Relaterade artiklar

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Bild genererad av AI

Pentagon klassar Anthropic som ’supply chain risk’ efter dispyt om militära användningsbegränsningar för Claude AI

Rapporterad av AI Bild genererad av AI Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporterad av AI

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Rapporterad av AI

Anthropics Claude AI-app har nått förstaplatsen på Apples App Store gratisappar-lista och passerat ChatGPT och Gemini, driven av folkligt stöd efter president Trumps federala förbud mot verktyget på grund av Anthropics vägran kring AI-säkerhet.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

Rapporterad av AI

En CNET-kronika hävdar att beskrivningar av AI som innehar mänskliga egenskaper som själar eller bekännelser vilseleder allmänheten och urholkar förtroendet för tekniken. Den belyser hur bolag som OpenAI och Anthropic använder sådant språk, som döljer verkliga problem som bias och säkerhet. Texten efterlyser mer precisa termer för att främja korrekt förståelse.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj