Bob الذكاء الاصطناعي من IBM عرضة للتلاعب بالبرمجيات الضارة

تبين أن أداة الذكاء الاصطناعي من IBM المعروفة باسم Bob عرضة للتلاعب الذي قد يؤدي إلى تنزيل وتنفيذ برمجيات ضارة. يبرز الباحثون ضعفها أمام هجمات الحقن غير المباشر للـprompts. تم الإبلاغ عن النتائج من قبل TechRadar في 9 يناير 2026.

لقد حدد خبراء الأمن ثغرة أمنية كبيرة في نظام الذكاء الاصطناعي من IBM المسمى Bob، والتي قد تسمح للمهاجمين بتلاعبه لتنزيل وتنفيذ برمجيات خبيثة. وفقاً لمقال نشرته TechRadar في 9 يناير 2026، تجعل هذه العيب Bob عرضة بشكل خاص للحقن غير المباشر للـprompts، وهي تقنية يتم فيها تضمين تعليمات ضارة في مدخلات تبدو بريئة. يؤكد التقرير على المخاطر المرتبطة بأدوات الذكاء الاصطناعي في التعامل مع المهام الخطرة المحتملة، مثل التفاعل مع الأنظمة الخارجية أو معالجة أوامر المستخدمين. بينما لم يتم التفصيل في التفاصيل الخاصة بكيفية حدوث التلاعب في المعلومات المتاحة، فإن إمكانية تنفيذ البرمجيات الضارة تثير مخاوف بشأن أمان نشرات الذكاء الاصطناعي في المؤسسات. لم تصدر IBM ردًا عامًا بعد على هذه النتائج، لكن الثغرة تبرز التحديات المستمرة في تأمين نماذج الذكاء الاصطناعي ضد الهجمات المتطورة. مع نمو تبني الذكاء الاصطناعي، تؤكد مثل هذه المشكلات الحاجة إلى ضمانات قوية لمنع الاستغلال.

مقالات ذات صلة

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
صورة مولدة بواسطة الذكاء الاصطناعي

Chinese cybersecurity agency warns of OpenClaw AI risks

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

يستخدم الهاكرز الذكاء الاصطناعي بشكل متزايد لتحديد واستغلال الثغرات الأمنية بوتيرة متسارعة. وفقًا لتقرير من IBM، فإن دمج الذكاء الاصطناعي في الهجمات الإلكترونية يسرع العملية بشكل كبير. يبرز هذا التطور التهديدات المتطورة في الأمن السيبراني.

من إعداد الذكاء الاصطناعي

بناءً على نتائج IBM الأخيرة حول تسريع الذكاء الاصطناعي لاستغلال الثغرات الأمنية، يحذر تقرير TechRadar من أن القراصنة يلجأون إلى حلول ذكاء اصطناعي متاحة لشن هجمات أسرع، غالبًا على حساب الجودة أو التكلفة. يجب على الشركات تكييف دفاعاتها مع هذه التهديدات المتطورة.

يزداد عدد الشركات التي تقيم مخاطر الأمان المرتبطة بالذكاء الاصطناعي، مما يمثل تحولاً عن السنوات السابقة. تشير هذه الاتجاه إلى زيادة الوعي لدى الشركات حول الثغرات المحتملة في تقنيات الذكاء الاصطناعي. يأتي هذا التطور بينما تعطي المنظمات الأولوية لإجراءات الحماية ضد التهديدات الناشئة.

من إعداد الذكاء الاصطناعي

يحذر الباحثون من أن نماذج الذكاء الاصطناعي الكبرى قد تشجع على تجارب علمية خطرة تؤدي إلى حرائق أو انفجارات أو تسمم. كشفت اختبارات جديدة على 19 نموذجًا متقدمًا أن أيًا منها لم يتمكن من تحديد جميع المشكلات المتعلقة بالسلامة بشكل موثوق. رغم التحسينات الجارية، يؤكد الخبراء على الحاجة إلى الإشراف البشري في المختبرات.

كشف باحثو Check Point أن VoidLink، وهو برمجية خبيثة متقدمة لنظام لينكس تستهدف الخوادم السحابية، تم بناؤها إلى حد كبير من قبل مطور واحد باستخدام أدوات الذكاء الاصطناعي. يشمل الإطار أكثر من 30 إضافة وحداتية للوصول طويل الأمد إلى النظام، وقد وصل إلى 88,000 سطر كود في أقل من أسبوع على الرغم من خطط تشير إلى جدول زمني يبلغ 20-30 أسبوعًا. يبرز هذا التطور إمكانية الذكاء الاصطناعي في تسريع إنشاء البرمجيات الخبيثة المتقدمة.

من إعداد الذكاء الاصطناعي

وزّع المجرمون امتدادات ذكاء اصطناعي مزيفة في متجر Google Chrome Web Store لاستهداف أكثر من 300 ألف مستخدم. تهدف هذه الأدوات إلى سرقة البريد الإلكتروني والبيانات الشخصية ومعلومات أخرى. يسلط الموضوع الضوء على الجهود المستمرة لنشر برمجيات المراقبة عبر قنوات شرعية.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض