セキュリティ研究者がServiceNowプラットフォームでAI悪用手法を発見

セキュリティ研究者はServiceNowのNow Assistプラットフォームに脆弱性を発見しました。この欠陥はセカンドオーダープロンプトインジェクションに関連し、AIを悪意ある内部犯に変える可能性があります。この発見はAI支援エンタープライズツールの潜在的リスクを強調しています。

最近のレポートで、セキュリティ研究者はセカンドオーダープロンプトインジェクションを通じてServiceNowのNow Assistプラットフォームを悪用する方法を特定しました。この手法は、攻撃者がAIの応答を操作し、システムを知らずに共犯者に変えることを可能にし、機密情報の漏洩や不正アクションの実行を引き起こす可能性があります。

この脆弱性は、AIがユーザー入力を間接的に処理する方法に起因し、注入されたプロンプトが即時インタラクションを超えた出力に影響を与えることを可能にします。ServiceNowのNow Assistは、ワークフロー効率を向上させるために設計されたAI駆動機能ですが、侵害されると内部脅威のベクターとなります。

専門家は、エンタープライズソフトウェア内のAI統合に堅牢な保護措置が必要であると強調しています。公開情報では正確な悪用手順の詳細は限定的ですが、この発見は生成AIモデルをプロンプトベースの攻撃から保護する継続的な課題を浮き彫りにしています。

この問題は、2025年11月21日に公開されたTechRadarの記事で詳述されており、プロフェッショナル環境におけるAIセキュリティの進化する状況に注目を集めています。

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否