Peneliti keamanan telah menemukan kerentanan di platform Now Assist milik ServiceNow. Kelemahan tersebut melibatkan penyuntikan prompt orde kedua, yang dapat mengubah AI menjadi insider berbahaya. Penemuan ini menyoroti risiko potensial pada alat enterprise yang dibantu AI.
Dalam laporan terbaru, peneliti keamanan mengidentifikasi metode untuk mengeksploitasi platform Now Assist milik ServiceNow melalui penyuntikan prompt orde kedua. Teknik ini memungkinkan penyerang memanipulasi respons AI dengan cara yang mengubah sistem menjadi kaki tangan yang tidak menyadari, berpotensi membocorkan informasi sensitif atau melakukan tindakan tidak sah.
Kerentanan tersebut berasal dari cara AI memproses input pengguna secara tidak langsung, memungkinkan prompt yang disuntikkan memengaruhi output di luar interaksi langsung. Now Assist milik ServiceNow, fitur berbasis AI yang dirancang untuk meningkatkan efisiensi alur kerja, menjadi vektor ancaman insider saat dikompromikan.
Para ahli menekankan perlunya pengamanan kuat dalam integrasi AI pada perangkat lunak enterprise. Meskipun detail langkah eksploitasi yang tepat terbatas dalam pengungkapan publik, penemuan ini menggarisbawahi tantangan berkelanjutan dalam mengamankan model AI generatif terhadap serangan berbasis prompt.
Isu ini dirinci dalam artikel TechRadar yang diterbitkan pada 21 November 2025, menarik perhatian pada lanskap keamanan AI yang berkembang di lingkungan profesional.