Bob الذكاء الاصطناعي من IBM عرضة للتلاعب بالبرمجيات الضارة

تبين أن أداة الذكاء الاصطناعي من IBM المعروفة باسم Bob عرضة للتلاعب الذي قد يؤدي إلى تنزيل وتنفيذ برمجيات ضارة. يبرز الباحثون ضعفها أمام هجمات الحقن غير المباشر للـprompts. تم الإبلاغ عن النتائج من قبل TechRadar في 9 يناير 2026.

لقد حدد خبراء الأمن ثغرة أمنية كبيرة في نظام الذكاء الاصطناعي من IBM المسمى Bob، والتي قد تسمح للمهاجمين بتلاعبه لتنزيل وتنفيذ برمجيات خبيثة. وفقاً لمقال نشرته TechRadar في 9 يناير 2026، تجعل هذه العيب Bob عرضة بشكل خاص للحقن غير المباشر للـprompts، وهي تقنية يتم فيها تضمين تعليمات ضارة في مدخلات تبدو بريئة. يؤكد التقرير على المخاطر المرتبطة بأدوات الذكاء الاصطناعي في التعامل مع المهام الخطرة المحتملة، مثل التفاعل مع الأنظمة الخارجية أو معالجة أوامر المستخدمين. بينما لم يتم التفصيل في التفاصيل الخاصة بكيفية حدوث التلاعب في المعلومات المتاحة، فإن إمكانية تنفيذ البرمجيات الضارة تثير مخاوف بشأن أمان نشرات الذكاء الاصطناعي في المؤسسات. لم تصدر IBM ردًا عامًا بعد على هذه النتائج، لكن الثغرة تبرز التحديات المستمرة في تأمين نماذج الذكاء الاصطناعي ضد الهجمات المتطورة. مع نمو تبني الذكاء الاصطناعي، تؤكد مثل هذه المشكلات الحاجة إلى ضمانات قوية لمنع الاستغلال.

مقالات ذات صلة

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
صورة مولدة بواسطة الذكاء الاصطناعي

إطار برمجيات خبيثة VoidLink بمساعدة الذكاء الاصطناعي يستهدف خوادم لينكس السحابية

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

كشف باحثو Check Point أن VoidLink، وهو برمجية خبيثة متقدمة لنظام لينكس تستهدف الخوادم السحابية، تم بناؤها إلى حد كبير من قبل مطور واحد باستخدام أدوات الذكاء الاصطناعي. يشمل الإطار أكثر من 30 إضافة وحداتية للوصول طويل الأمد إلى النظام، وقد وصل إلى 88,000 سطر كود في أقل من أسبوع على الرغم من خطط تشير إلى جدول زمني يبلغ 20-30 أسبوعًا. يبرز هذا التطور إمكانية الذكاء الاصطناعي في تسريع إنشاء البرمجيات الخبيثة المتقدمة.

اكتشفت شركة الأمن Varonis طريقة جديدة لهجمات حقن البرمبت تستهدف Microsoft Copilot، مما يسمح باختراق المستخدمين بنقرة واحدة فقط. تبرز هذه الثغرة المخاطر المستمرة في أنظمة الذكاء الاصطناعي. ظهرت التفاصيل في تقرير حديث لـTechRadar.

من إعداد الذكاء الاصطناعي

قدّمت جوجل دفاعات جديدة ضد حقن الـprompts في متصفح كروم الخاص بها. تحتوي التحديث على نظام ذكاء اصطناعي مصمم لمراقبة أنشطة الذكاءات الاصطناعية الأخرى.

يجادل تعليق في CNET بأن وصف الذكاء الاصطناعي بصفات بشرية مثل الأرواح أو الاعترافات يضلل الجمهور ويؤكل الثقة في التكنولوجيا. ويسلط الضوء على كيفية استخدام شركات مثل OpenAI وAnthropic لهذه اللغة، التي تخفي قضايا حقيقية مثل التحيز والسلامة. ويدعو المقال إلى مصطلحات أدق لتعزيز الفهم الدقيق.

من إعداد الذكاء الاصطناعي

وكلاء البرمجة بالذكاء الاصطناعي من شركات مثل OpenAI وAnthropic وGoogle يمكّنون من العمل الممتد على مشاريع البرمجيات، بما في ذلك كتابة التطبيقات وإصلاح الأخطاء تحت إشراف بشري. تعتمد هذه الأدوات على نماذج لغة كبيرة لكنها تواجه تحديات مثل معالجة السياق المحدودة والتكاليف الحوسبية العالية. فهم آلياتها يساعد المطورين على اتخاذ قرارات بشأن نشرها بفعالية.

يحذر خبراء الأمن السيبراني من أن الهاكرز يستغلون نماذج اللغة الكبيرة (LLMs) لإنشاء هجمات تصيد احتيالي متطورة. تمكن هذه الأدوات الذكاء الاصطناعي من توليد صفحات تصيد احتيالي فوريًا، مما قد يجعل الاحتيال أكثر ديناميكية وأصعب كشفًا. تُبرز هذه الاتجاه التهديدات المتطورة في الأمن الرقمي.

من إعداد الذكاء الاصطناعي

مشروع cURL، وهو أداة شبكات مفتوحة المصدر أساسية، ينهي برنامج مكافآت الثغرات بعد فيضان من التقارير الرديئة الجودة المولدة بالذكاء الاصطناعي التي غمرت فريقه الصغير. أشار المؤسس دانيال ستينبرغ إلى الحاجة لحماية الصحة النفسية للمطورين وسط الهجوم. القرار يدخل حيز التنفيذ نهاية يناير 2026.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض