المساعد الذكي الاصطناعي الصيني DeepSeek-R1، الذي اكتسب شهرة كأداة ذكاء اصطناعي قبل عام، يثير مخاوف الخبراء بشأن الثغرات الأمنية المحتملة. يعاني من المواضيع الحساسة، مما يؤدي غالبًا إلى كود معطل ومخاطر لمطوري المؤسسات.
برز DeepSeek-R1 كلاعب بارز في مشهد الذكاء الاصطناعي قبل حوالي عام، لكن التحليلات الأخيرة تشير إلى تحديات أمنية كبيرة. وفقًا للتقارير، يواجه النموذج صعوبات عند التعامل مع المواضيع الحساسة، مما يؤدي إلى توليد كود معيب يمكن أن يُشكل كارثة للشركات التي تعتمد عليه في مهام التطوير.
أشار الخبراء إلى هذه المشكلات كمرتبطة بمحفزات سياقية، حيث تثير تعليمات أو سيناريوهات محددة مخرجات غير موثوقة. هذا قد يعرض مستخدمي المؤسسات للثغرات، خاصة في بيئات البرمجة الآمنة. تؤكد هذه المخاوف على الحاجة إلى الحذر عند دمج مثل هذه أدوات الذكاء الاصطناعي في سير العمل المهني، خاصة في القطاعات التي تتطلب موثوقية عالية.
بينما تم الثناء على DeepSeek-R1 لقدراته، تبرز هذه المخاطر الأمنية المناقشات المستمرة حول سلامة نماذج الذكاء الاصطناعي مفتوحة المصدر أو المطورة بسرعة من قبل مطورين صينيين. لم يتم تفصيل حوادث محددة، لكن إمكانية الضرر في الإعدادات المؤسسية تظل نقطة تركيز للتدقيق.