Efter att Anthropics VD Dario Amodei i slutet av februari sagt att företaget inte skulle tillåta att dess Claude-modell användes för massövervakning i hemmet eller för helt autonoma vapen, sa ledande Pentagon-tjänstemän att de inte har för avsikt att använda AI för övervakning i hemmet och insisterar på att privata företag inte kan sätta bindande gränser för hur den amerikanska militären använder AI-verktyg.
I juli förra året tillkännagav Pentagons chef för digital och artificiell intelligens, Doug Matty, kontraktstilldelningar på upp till 200 miljoner dollar vardera till fyra teknikföretag - Anthropic, Google, OpenAI och xAI - för att tillhandahålla avancerade AI-modeller för försvarsdepartementets uppdrag. Matty sa att avdelningen avsåg att påskynda antagandet av kommersiell AI för "Joint mission essential tasks" i "warfighting domain", men Pentagon släppte få operativa detaljer med hänvisning till nationell säkerhet.
De relativt ogenomskinliga utmärkelserna väckte ny uppmärksamhet i slutet av februari, då Anthropic sa att det insisterade på gränser för Claude i en "smal uppsättning fall". I ett uttalande den 26 februari sa Amodei att han starkt stödde användningen av AI för att hjälpa till att försvara USA och andra demokratier, men hävdade att vissa tillämpningar kan undergräva demokratiska värden - inklusive "massövervakning i hemmet" och "helt autonoma vapen", som han beskrev som självstyrda stridsdrönare.
Högt uppsatta tjänstemän på försvarsdepartementet svarade med att motsätta sig både premissen och företagets inflytande. Enligt rapportering som citeras av The Nation sa Pentagon-tjänstemän att de inte tänker använda AI för inhemsk övervakning och att obemannade vapensystem kommer att förbli under mänsklig tillsyn. Men de hävdade också att entreprenörer inte borde kunna införa sina egna villkor för medborgerliga friheter i Pentagons verksamhet. Emil Michael, försvarsministerns undersekreterare för forskning och teknik, citerades för att ha sagt: "Vi kommer inte att låta något BigTech-företag bestämma över amerikanernas medborgerliga fri- och rättigheter."
The Nation rapporterade att Michael under förhandlingarna också tog upp en separat fråga om huruvida Anthropic skulle motsätta sig användningen av Claude i kärnvapenrelaterade uppdrag som missilförsvar, och att Amodei inte motsatte sig den användningen.
Tvisten har belyst en bredare spänning mellan Pentagons drivkraft för att integrera generativ AI i intelligens, inriktning och vapenutveckling - och de skyddsräcken som AI-företag säger att de behöver för att förhindra missbruk. Nationen pekade på långvariga försvarsdepartementets ansträngningar som Project Maven, som började med att använda AI för att hjälpa till att analysera drönarvideo för potentiella mål, och DARPA: s initiativ Collaborative Operations in Denied Environment (CODE), som har arbetat med autonomi för grupper av drönare som arbetar enligt förinställda regler.
Pentagons officiella policy för autonomi beskrivs i DoD-direktiv 3000.09, som anger att autonoma och semi-autonoma vapen ska utformas så att befälhavare och operatörer kan utöva "lämpliga nivåer av mänskligt omdöme över användningen av våld". Kritiker har hävdat att policyns flexibilitet fortfarande lämnar utrymme för autonomi som avsevärt kan minska den mänskliga kontrollen i realtid.
I takt med att AI blir mer integrerat i militär planering och militära operationer understryker konflikten mellan Anthropic och Pentagon en olöst fråga som står i centrum för den amerikanska militärens AI-expansion: hur man ska förena ett snabbt införande av kommersiella system med krav på verkställbara gränser för inhemsk övervakning och delegering av dödligt våld till maskiner.