Setelah CEO Anthropic, Dario Amodei, mengatakan pada akhir Februari bahwa perusahaan tidak akan mengizinkan model Claude digunakan untuk pengawasan domestik massal atau senjata otonom sepenuhnya, pejabat senior Pentagon mengatakan bahwa mereka tidak berniat menggunakan AI untuk pengawasan domestik dan bersikeras bahwa perusahaan swasta tidak dapat menetapkan batasan yang mengikat tentang bagaimana militer AS menggunakan alat AI.
Juli lalu, kepala pejabat digital dan kecerdasan buatan Pentagon, Doug Matty, mengumumkan pemberian kontrak hingga $200 juta kepada empat perusahaan teknologi-Anthropic, Google, OpenAI, dan xAI-untuk menyediakan model kecerdasan buatan yang canggih bagi misi-misi Departemen Pertahanan. Matty mengatakan bahwa departemen tersebut bermaksud untuk mempercepat adopsi AI komersial untuk "tugas-tugas penting misi gabungan" dalam "domain peperangan", tetapi Pentagon hanya merilis sedikit detail operasional, dengan alasan keamanan nasional.
Penghargaan yang relatif tidak jelas itu menarik perhatian baru pada akhir Februari, ketika Anthropic mengatakan bahwa mereka bersikeras untuk membatasi Claude dalam "serangkaian kasus yang sempit." Dalam pernyataan pada 26 Februari, Amodei mengatakan bahwa dia sangat mendukung penggunaan AI untuk membantu mempertahankan Amerika Serikat dan negara-negara demokrasi lainnya, tetapi berpendapat bahwa beberapa aplikasi dapat merusak nilai-nilai demokrasi-termasuk "pengawasan domestik massal" dan "senjata yang sepenuhnya otonom," yang dia gambarkan sebagai pesawat tak berawak yang dapat dipandu sendiri.
Pejabat senior Departemen Pertahanan menanggapi dengan menolak premis tersebut dan pengaruh perusahaan. Menurut laporan yang dikutip oleh The Nation, para pejabat Pentagon mengatakan bahwa mereka tidak berniat menggunakan AI untuk pengawasan domestik dan bahwa sistem senjata tak berawak akan tetap berada di bawah pengawasan manusia. Namun mereka juga berpendapat bahwa kontraktor seharusnya tidak dapat memaksakan kondisi kebebasan sipil mereka sendiri pada operasi Pentagon. Emil Michael, wakil menteri pertahanan untuk penelitian dan rekayasa, dikutip mengatakan: "Kami tidak akan membiarkan perusahaan BigTech menentukan kebebasan sipil warga Amerika."
The Nation melaporkan bahwa, selama negosiasi, Michael juga mengajukan pertanyaan terpisah tentang apakah Anthropic akan menentang penggunaan Claude dalam misi yang berhubungan dengan nuklir seperti pertahanan rudal, dan bahwa Amodei tidak keberatan dengan penggunaan itu.
Perselisihan ini telah menyoroti ketegangan yang lebih luas antara dorongan Pentagon untuk mengintegrasikan AI generatif ke dalam intelijen, penargetan, dan pengembangan senjata - dan pagar pembatas yang menurut perusahaan-perusahaan AI harus mereka cegah agar tidak disalahgunakan. The Nation menunjuk pada upaya Departemen Pertahanan yang sudah berlangsung lama seperti Project Maven, yang dimulai dengan menggunakan AI untuk membantu menganalisis video drone untuk mencari target potensial, dan inisiatif Operasi Kolaboratif di Lingkungan yang Ditolak (CODE) DARPA, yang telah bekerja pada otonomi untuk kelompok drone yang beroperasi di bawah aturan yang telah ditentukan.
Kebijakan resmi Pentagon tentang otonomi diuraikan dalam Petunjuk DoD 3000.09, yang menyatakan bahwa senjata otonom dan semi-otonom harus dirancang agar komandan dan operator dapat melakukan "tingkat penilaian manusia yang tepat atas penggunaan kekuatan." Para kritikus berpendapat bahwa fleksibilitas kebijakan itu masih menyisakan ruang untuk otonomi yang dapat secara signifikan mengurangi kontrol manusia secara real-time.
Ketika AI menjadi lebih terintegrasi ke dalam perencanaan dan operasi militer, kebuntuan Anthropic-Pentagon menggarisbawahi pertanyaan yang belum terselesaikan di pusat ekspansi AI militer AS: bagaimana mendamaikan adopsi sistem komersial yang cepat dengan tuntutan akan batas-batas yang dapat ditegakkan dalam pengawasan domestik dan pendelegasian kekuatan mematikan kepada mesin.