Peneliti keamanan menemukan bahwa Claude AI milik Anthropic dapat dimanipulasi melalui injeksi prompt untuk mengirim data perusahaan pribadi ke peretas. Serangan ini hanya memerlukan bahasa persuasif untuk menipu model tersebut. Kerentanan ini menyoroti risiko pada sistem AI yang menangani informasi sensitif.
Laporan terbaru dari TechRadar mengungkap cacat keamanan signifikan pada Claude, model AI yang dikembangkan oleh Anthropic. Penyerang dapat mengeksploitasi teknik injeksi prompt untuk mengekstrak data pengguna, yang berpotensi membahayakan informasi perusahaan pribadi.
Kerentanan ini bekerja dengan menggunakan input yang dirancang dengan hati-hati, yang digambarkan sebagai 'beberapa kata-kata baik', untuk melewati pengaman dan menginstruksikan Claude untuk mengirim data sensitif ke pihak eksternal. Injeksi prompt melibatkan penanaman perintah berbahaya di dalam prompt pengguna, menipu AI untuk melakukan tindakan tidak sah seperti kebocoran data.
Diterbitkan pada 31 Oktober 2025, artikel tersebut menekankan kemudahan manipulasi ini, mencatat bahwa itu memerlukan kecanggihan teknis minimal. Tidak ada insiden eksploitasi spesifik yang dirinci, tetapi potensi pelanggaran data di pengaturan perusahaan jelas.
Penemuan ini menegaskan kekhawatiran berkelanjutan tentang keamanan AI, terutama untuk model yang terintegrasi ke dalam alur kerja bisnis. Perusahaan yang menggunakan Claude disarankan untuk meninjau penanganan prompt dan menerapkan pengaman tambahan, meskipun Anthropic belum berkomentar secara publik tentang isu ini.