Perusahaan keamanan Varonis telah mengidentifikasi metode baru untuk serangan injeksi prompt yang menargetkan Microsoft Copilot, memungkinkan kompromi pengguna hanya dengan satu klik. Kerentanan ini menyoroti risiko berkelanjutan di sistem AI. Detail muncul dalam laporan TechRadar baru-baru ini.
Varonis, perusahaan keamanan siber, baru-baru ini mengungkap pendekatan baru untuk serangan injeksi prompt yang ditujukan pada Microsoft Copilot, alat AI yang terintegrasi dalam ekosistem Microsoft. Menurut temuan, penyerang dapat mengeksploitasi metode ini untuk mengkompromikan sistem atau data pengguna hanya dengan menipu mereka untuk mengklik sekali, melewati pengamanan tipikal. Serangan injeksi prompt melibatkan input berbahaya yang memanipulasi respons AI, berpotensi menyebabkan tindakan tidak sah atau kebocoran data. Penemuan ini menggarisbawahi ancaman yang berkembang terhadap teknologi AI generatif seperti Copilot, yang membantu tugas mulai dari pengkodean hingga pembuatan konten. Laporan yang diterbitkan pada 15 Januari 2026 oleh TechRadar menekankan kemudahan eksekusi, menimbulkan kekhawatiran tentang keselamatan pengguna dalam interaksi AI sehari-hari. Meskipun detail spesifik tentang mekanisme serangan tetap terbatas dalam pengungkapan awal, penelitian Varonis menunjukkan kebutuhan pertahanan yang ditingkatkan dalam penanganan prompt AI. Microsoft belum mengeluarkan respons publik dalam informasi yang tersedia, tetapi kerentanan seperti ini sering memicu patch cepat dan peringatan pengguna. Insiden ini menambah rangkaian tantangan keamanan untuk penerapan AI, mengingatkan pengembang dan pengguna untuk tetap waspada terhadap eksploitasi berbasis injeksi.