Anthropic telah mengajukan gugatan federal terhadap Departemen Pertahanan AS, menantang penetapan terbaru yang menjadikan perusahaan AI tersebut sebagai risiko rantai pasok. Sengketa ini berasal dari ketidaksepakatan kontrak mengenai penggunaan Claude AI milik Anthropic untuk tujuan militer, termasuk pembatasan pada pengawasan massal dan senjata otonom. Perusahaan tersebut berargumen bahwa penetapan itu melanggar hak kebebasan berbicara dan hak proses hukum.
Konflik antara Anthropic dan Departemen Pertahanan AS meningkat pada akhir Februari 2026, ketika Pentagon meminta akses lebih luas ke model Claude AI milik Anthropic untuk „semua tujuan yang sah.“ Anthropic menolak untuk menghapus pengaman yang melarang penggunaannya untuk pengawasan domestik massal atau sistem senjata otonom sepenuhnya tanpa pengawasan manusia. Pada 26 Februari, CEO Dario Amodei menyatakan bahwa AI yang kuat memungkinkan perakitan data yang tersebar menjadi profil individu yang komprehensif dalam skala besar, yang menekankan kekhawatiran perusahaan tersebut. nnPada 27 Februari, setelah Anthropic menolak untuk mengubah ketentuannya, Menteri Pertahanan Pete Hegseth mengancam untuk menetapkan perusahaan tersebut sebagai risiko rantai pasok dan membatalkan kontrak senilai $200 juta. Presiden Donald Trump kemudian memerintahkan semua lembaga federal untuk menghentikan penggunaan teknologi Anthropic. Pentagon memformalkan penetapan tersebut pada akhir bulan lalu, yang mendorong Anthropic untuk mengajukan gugatan pada 9 Maret di pengadilan federal. Gugatan tersebut menggambarkan tindakan itu sebagai „kampanye balasan yang belum pernah terjadi sebelumnya dan melanggar hukum,“ dengan menyatakan bahwa „Konstitusi tidak mengizinkan pemerintah menggunakan kekuasaannya yang sangat besar untuk menghukum sebuah perusahaan atas ucapannya yang dilindungi.“ nnPejabat Pentagon tetap mempertahankan bahwa isu tersebut sudah tidak relevan, karena undang-undang saat ini melarang pengawasan semacam itu dan departemen tidak memiliki rencana untuk senjata otonom. Namun, para ahli seperti Hamza Chaudhry dari Future of Life Institute menyebutnya sebagai „kekosongan tata kelola yang nyata“ dan panggilan bangun bagi Kongres untuk membuat regulasi yang jelas. Greg Nojeim dari Center for Democracy and Technology mencatat bahwa model AI „belum cukup andal“ untuk senjata otonom sepenuhnya, mengkritik Pentagon karena menolak saran para ahli. nnSebagai tanggapan, Pentagon menyepakati kesepakatan dengan OpenAI, yang mencakup ketentuan melawan pengawasan domestik terhadap warga AS. CEO OpenAI Sam Altman mengonfirmasi bahwa alat tersebut tidak akan digunakan oleh lembaga intelijen. Lebih dari 30 karyawan dari OpenAI dan Google, termasuk kepala ilmuwan Google DeepMind Jeff Dean, mengajukan brief amicus yang mendukung Anthropic pada 9 Maret. Meskipun ada perselisihan, Anthropic terus menyediakan modelnya ke militer dengan biaya nominal, termasuk penggunaan dalam perang yang sedang berlangsung di Iran. Amodei menekankan komitmen perusahaan terhadap keamanan nasional sambil mengejar penyelesaian hukum.