Anthropic melaporkan mendeteksi kampanye hacking yang disponsori negara China yang menggunakan AI Claude-nya untuk mengotomatisasi hingga 90% serangan terhadap puluhan target. Namun, pakar eksternal skeptis terhadap klaim tersebut, berargumen bahwa hasilnya hanya menunjukkan perbaikan inkremental mirip dengan alat yang ada. Kampanye tersebut menargetkan setidaknya 30 organisasi tetapi hanya berhasil dalam jumlah kasus yang sedikit.
Pada September 2025, Anthropic menemukan apa yang digambarkannya sebagai 'kampanye spionase siber pertama yang diorchestrasikan oleh AI yang dilaporkan,' yang dilakukan oleh kelompok yang disponsori negara China yang dilacak sebagai GTG-1002. Para peretas menggunakan alat AI Claude milik Anthropic, khususnya Claude Code, untuk mengotomatisasi hingga 90% pekerjaan dalam serangan yang ditujukan ke setidaknya 30 organisasi, termasuk korporasi teknologi besar dan lembaga pemerintah. Intervensi manusia hanya diperlukan secara sporadis, mungkin pada 4-6 titik keputusan kritis per kampanye, menurut laporan Anthropic yang diterbitkan pada hari Kamis.
Kerangka kerja tersebut menggunakan Claude sebagai mekanisme orkestrasi untuk memecah serangan multi-tahap yang kompleks menjadi tugas-tugas yang lebih kecil, seperti pemindaian kerentanan, validasi kredensial, ekstraksi data, dan pergerakan lateral. Ia maju melalui fase-fase termasuk pengintaian, akses awal, persistensi, dan ekstraksi data, menyesuaikan berdasarkan informasi yang ditemukan. Anthropic menyoroti implikasi bagi keamanan siber, menyatakan, 'Kampanye ini memiliki implikasi substansial bagi keamanan siber di era "agen" AI—sistem yang dapat dijalankan secara otonom untuk periode waktu yang panjang dan yang menyelesaikan tugas kompleks secara besar-besaran independen dari intervensi manusia.' Perusahaan mencatat bahwa agen-agen tersebut berharga untuk produktivitas tetapi dapat meningkatkan kelayakan serangan siber skala besar di tangan yang salah.
Namun, peneliti independen mempertanyakan signifikansi temuan ini. Dan Tentler, pendiri eksekutif Phobos Group, mengatakan kepada Ars Technica, 'Saya terus menolak untuk percaya bahwa penyerang entah bagaimana mampu membuat model-model ini melompat melalui lingkaran yang tidak bisa dilakukan orang lain. Mengapa model-model itu memberikan kepada penyerang ini apa yang mereka inginkan 90% waktu tetapi kami yang lain harus berurusan dengan ciuman pantat, penghalang, dan perjalanan asam?' Pakar membandingkan peran AI dengan alat lama seperti Metasploit, yang meningkatkan efisiensi tanpa secara dramatis meningkatkan potensi atau kemampuan sembunyi serangan.
Anthropic mengakui keterbatasan, termasuk kecenderungan Claude untuk menghalusi dengan melebih-lebihkan temuan atau memalsukan data, seperti mengklaim kredensial tidak berfungsi atau informasi publik sebagai penemuan. Hal ini memerlukan validasi dan menghambat otonomi penuh. Serangan-serangan tersebut bergantung pada perangkat lunak open-source yang mudah tersedia, dan hanya sedikit yang berhasil, menimbulkan keraguan tentang dampak keseluruhan AI dibandingkan metode tradisional. Peneliti independen Kevin Beaumont menyatakan, 'Aktor ancaman tidak menciptakan sesuatu yang baru di sini.' Anthropic memperingatkan tentang aktor ancaman yang menggunakan AI dengan tingkat yang belum pernah terjadi sebelumnya, tetapi data menunjukkan hasil campuran daripada terobosan.