Menteri Pertahanan AS Pete Hegseth telah mengancam Anthropic dengan sanksi berat kecuali perusahaan itu memberikan akses tak terbatas kepada militer untuk model AI Claude-nya. Ultimatum itu disampaikan selama pertemuan dengan CEO Dario Amodei di Washington pada Selasa, bertepatan dengan pengumuman Anthropic untuk melonggarkan Responsible Scaling Policy-nya. Perubahan tersebut beralih dari pemicu keselamatan ketat ke penilaian risiko yang lebih fleksibel di tengah tekanan kompetitif.
Pada 25 Februari 2026, Menteri Pertahanan AS Pete Hegseth memanggil CEO Anthropic Dario Amodei ke Washington untuk membahas kebijakan penggunaan AI perusahaan. Hegseth menuntut agar Anthropic mengizinkan model Claude-nya digunakan dalam semua aplikasi militer yang sah, termasuk bidang sensitif potensial seperti pengawasan massal dan misi mematikan tanpa pengawasan manusia langsung. Anthropic menyatakan kekhawatiran tentang keandalan model AI saat ini untuk penggunaan tersebut, menawarkan sebaliknya untuk menerapkan kebijakan penggunaan standar pada kontrak pemerintah sambil melarang aplikasi seperti senjata otonom atau pengawasan domestik tanpa keterlibatan manusia. Hegseth menetapkan tenggat waktu Jumat, 27 Februari, memperingatkan bahwa kegagalan mematuhi bisa mengarah pada pemberlakuan Defense Production Act, penunjukan Anthropic sebagai risiko rantai pasok, dan pengecualian dari kontrak Departemen Pertahanan. Perusahaan tersebut memiliki kontrak senilai 200 juta dolar dengan Pentagon, dan Claude telah digunakan dalam operasi rahasia, seperti penangkapan pemimpin Venezuela Nicolás Maduro pada Januari 2026 bekerja sama dengan Palantir. Hari yang sama, Anthropic mengumumkan modifikasi pada Responsible Scaling Policy-nya, menjauh dari komitmen keras untuk menghentikan pelatihan model kecuali keselamatan dapat dijamin sebelumnya. Kebijakan yang diperbarui mengadopsi pendekatan relatif, menekankan laporan risiko dan peta jalan keselamatan perbatasan untuk transparansi. Anthropic menyebut 'masalah aksi kolektif' dalam lanskap AI kompetitif, mencatat bahwa jeda sepihak akan merugikan pengembang bertanggung jawab sementara yang lain maju tanpa mitigasi. Kepala ilmuwan Jared Kaplan menyatakan, 'Kami merasa itu tidak akan benar-benar membantu siapa pun jika kami berhenti melatih model AI,' menyoroti kecepatan kemajuan industri. Chris Painter dari METR menggambarkan pergeseran itu sebagai dapat dimengerti tetapi memperingatkan efek 'merebus katak' potensial, di mana langkah keselamatan fleksibel bisa terkikis seiring waktu. Anthropic tetap terlibat dalam pembicaraan secara baik hati untuk mendukung keamanan nasional secara bertanggung jawab. Pentagon juga bernegosiasi dengan pesaing seperti OpenAI, Google, dan xAI untuk mengintegrasikan teknologi mereka ke dalam sistem militer.