Säkerhetsforskare hittar metod för missbruk av AI i ServiceNow-plattform

Säkerhetsforskare har upptäckt en sårbarhet i ServiceNows Now Assist-plattform. Bristen involverar andra ordningens promptinjektion, som kan förvandla AI till en skadlig insider. Detta fynd belyser potentiella risker i AI-assisterade företagsverktyg.

I en nyligen publicerad rapport identifierade säkerhetsforskare en metod för att utnyttja ServiceNows Now Assist-plattform genom andra ordningens promptinjektion. Denna teknik gör det möjligt för angripare att manipulera AI-svar på sätt som förvandlar systemet till en ovetande medhjälpare, med potential att läcka känslig information eller utföra obehöriga åtgärder.

Sårbarheten härrör från hur AI:n bearbetar användarinput indirekt, vilket möjliggör att injicerade prompts påverkar utdata bortom den omedelbara interaktionen. ServiceNows Now Assist, en AI-driven funktion utformad för att förbättra arbetsflödeseffektivitet, blir en vektor för insiderhot när den komprometteras.

Experter betonar behovet av robusta skyddsåtgärder i AI-integrationer inom företagsprogramvara. Även om detaljer kring exakta utnyttjandeskedjor är begränsade i offentliga offentliggöranden, understryker upptäckten pågående utmaningar i att säkra generativa AI-modeller mot promptbaserade attacker.

Frågan beskrevs i en TechRadar-artikel publicerad den 21 november 2025, som riktar uppmärksamhet mot det utvecklande landskapet för AI-säkerhet i professionella miljöer.

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj