يواجه Microsoft Copilot ثغرة أمنية في حقن البرمبت بنقرة واحدة

اكتشفت شركة الأمن Varonis طريقة جديدة لهجمات حقن البرمبت تستهدف Microsoft Copilot، مما يسمح باختراق المستخدمين بنقرة واحدة فقط. تبرز هذه الثغرة المخاطر المستمرة في أنظمة الذكاء الاصطناعي. ظهرت التفاصيل في تقرير حديث لـTechRadar.

اكتشفت Varonis، وهي شركة أمن سيبراني، مؤخرًا نهجًا جديدًا لهجمات حقن البرمبت تستهدف Microsoft Copilot، وهي أداة ذكاء اصطناعي مدمجة في نظام Microsoft. وفقًا للنتائج، يمكن للمهاجمين استغلال هذه الطريقة لاختراق أنظمة المستخدمين أو بياناتهم ببساطة من خلال خداعهم للنقر مرة واحدة، متجاوزين الإجراءات الوقائية النموذجية. تتضمن هجمات حقن البرمبت مدخلات ضارة تتلاعب بردود الذكاء الاصطناعي، مما قد يؤدي إلى إجراءات غير مصرح بها أو تسريبات بيانات. يؤكد هذا الاكتشاف على التهديدات المتطورة لتقنيات الذكاء الاصطناعي التوليدية مثل Copilot، التي تساعد في مهام تتراوح من البرمجة إلى إنشاء المحتوى. يشدد التقرير، الذي نشرته TechRadar في 15 يناير 2026، على سهولة التنفيذ، مما يثير مخاوف بشأن سلامة المستخدمين في التفاعلات اليومية مع الذكاء الاصطناعي. بينما تظل التفاصيل الخاصة بآليات الهجوم محدودة في الإفصاحات الأولية، تشير أبحاث Varonis إلى الحاجة إلى دفاعات محسنة في التعامل مع برمبت الذكاء الاصطناعي. لم تصدر Microsoft ردًا عامًا بعد في المعلومات المتاحة، لكن مثل هذه الثغرات غالبًا ما تؤدي إلى تصحيحات سريعة وإشعارات للمستخدمين. تضيف هذه الحادثة إلى سلسلة من التحديات الأمنية لنشر الذكاء الاصطناعي، مذكرة المطورين والمستخدمين بالبقاء يقظين ضد الاستغلالات القائمة على الحقن.

مقالات ذات صلة

Realistic photo of a Windows 11 laptop showcasing advanced Microsoft Copilot AI features, including voice activation and screen analysis, in an office environment.
صورة مولدة بواسطة الذكاء الاصطناعي

مايكروسوفت تجلب الذكاء الاصطناعي المتقدم كوبايلوت إلى جميع أجهزة الكمبيوتر الشخصي مع ويندوز 11

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

أعلنت مايكروسوفت عن سلسلة من ميزات الذكاء الاصطناعي التوليدي لنظام ويندوز 11، بهدف تحويل كل جهاز كمبيوتر شخصي إلى 'جهاز كمبيوتر ذكاء اصطناعي' من خلال التفعيل الصوتي، وتحليل الشاشة، والتعامل الآلي مع الملفات. هذه التحديثات، بما في ذلك أمر الصوت 'هي، كوبايلوت' وإطلاق كوبايلوت فيجن عالميًا، تبني على تركيز الشركة في الذكاء الاصطناعي الوكيلي. تؤكد الميزات على التفاعلات الطبيعية مع المستخدمين مع معالجة مخاوف الخصوصية السابقة من أدوات مثل ريكول.

قدّمت جوجل دفاعات جديدة ضد حقن الـprompts في متصفح كروم الخاص بها. تحتوي التحديث على نظام ذكاء اصطناعي مصمم لمراقبة أنشطة الذكاءات الاصطناعية الأخرى.

من إعداد الذكاء الاصطناعي

تبين أن أداة الذكاء الاصطناعي من IBM المعروفة باسم Bob عرضة للتلاعب الذي قد يؤدي إلى تنزيل وتنفيذ برمجيات ضارة. يبرز الباحثون ضعفها أمام هجمات الحقن غير المباشر للـprompts. تم الإبلاغ عن النتائج من قبل TechRadar في 9 يناير 2026.

يستخدم الهاكرز الذكاء الاصطناعي بشكل متزايد لتحديد واستغلال الثغرات الأمنية بوتيرة متسارعة. وفقًا لتقرير من IBM، فإن دمج الذكاء الاصطناعي في الهجمات الإلكترونية يسرع العملية بشكل كبير. يبرز هذا التطور التهديدات المتطورة في الأمن السيبراني.

من إعداد الذكاء الاصطناعي

استهدفت برمجيات سرقة المعلومات وكلاء الذكاء الاصطناعي OpenClaw للمرة الأولى، وفقًا لتقرير من TechRadar. يسلط الحادث الضوء على الثغرات في أنظمة الذكاء الاصطناعي المُنشرة محليًا والتي تخزن معلومات حساسة. نُشر المقال في 17 فبراير 2026.

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

من إعداد الذكاء الاصطناعي

As AI platforms shift toward ad-based monetization, researchers warn that the technology could shape users' behavior, beliefs, and choices in unseen ways. This marks a turnabout for OpenAI, whose CEO Sam Altman once deemed the mix of ads and AI 'unsettling' but now assures that ads in AI apps can maintain trust.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض