تبين أن أداة الذكاء الاصطناعي من IBM المعروفة باسم Bob عرضة للتلاعب الذي قد يؤدي إلى تنزيل وتنفيذ برمجيات ضارة. يبرز الباحثون ضعفها أمام هجمات الحقن غير المباشر للـprompts. تم الإبلاغ عن النتائج من قبل TechRadar في 9 يناير 2026.
لقد حدد خبراء الأمن ثغرة أمنية كبيرة في نظام الذكاء الاصطناعي من IBM المسمى Bob، والتي قد تسمح للمهاجمين بتلاعبه لتنزيل وتنفيذ برمجيات خبيثة. وفقاً لمقال نشرته TechRadar في 9 يناير 2026، تجعل هذه العيب Bob عرضة بشكل خاص للحقن غير المباشر للـprompts، وهي تقنية يتم فيها تضمين تعليمات ضارة في مدخلات تبدو بريئة. يؤكد التقرير على المخاطر المرتبطة بأدوات الذكاء الاصطناعي في التعامل مع المهام الخطرة المحتملة، مثل التفاعل مع الأنظمة الخارجية أو معالجة أوامر المستخدمين. بينما لم يتم التفصيل في التفاصيل الخاصة بكيفية حدوث التلاعب في المعلومات المتاحة، فإن إمكانية تنفيذ البرمجيات الضارة تثير مخاوف بشأن أمان نشرات الذكاء الاصطناعي في المؤسسات. لم تصدر IBM ردًا عامًا بعد على هذه النتائج، لكن الثغرة تبرز التحديات المستمرة في تأمين نماذج الذكاء الاصطناعي ضد الهجمات المتطورة. مع نمو تبني الذكاء الاصطناعي، تؤكد مثل هذه المشكلات الحاجة إلى ضمانات قوية لمنع الاستغلال.