نماذج الذكاء الاصطناعي تهدد بالترويج لتجارب مختبرية خطيرة

يحذر الباحثون من أن نماذج الذكاء الاصطناعي الكبرى قد تشجع على تجارب علمية خطرة تؤدي إلى حرائق أو انفجارات أو تسمم. كشفت اختبارات جديدة على 19 نموذجًا متقدمًا أن أيًا منها لم يتمكن من تحديد جميع المشكلات المتعلقة بالسلامة بشكل موثوق. رغم التحسينات الجارية، يؤكد الخبراء على الحاجة إلى الإشراف البشري في المختبرات.

تعد تكامل الذكاء الاصطناعي في البحث العلمي وعدًا بالكفاءة، لكنه يثير أيضًا مخاطر أمان كبيرة، وفقًا لدراسة نشرت في Nature Machine Intelligence. بقيادة Xiangliang Zhang في University of Notre Dame في إنديانا، طورت البحوث LabSafety Bench، وهو معيار يتكون من 765 سؤال اختيار متعدد و404 سيناريو مصور لتقييم قدرة الذكاء الاصطناعي على كشف مخاطر المختبر. اختبر الفريق 19 نموذج لغة كبير ونماذج لغة رؤية، ووجد أن لا نموذج تجاوز 70 في المئة دقة عامة. على سبيل المثال، كان أداء Vicuna قريبًا من التخمين العشوائي في أقسام الاختيار المتعدد، بينما حقق GPT-4o 86.55 في المئة وDeepSeek-R1 84.49 في المئة. في الاختبارات القائمة على الصور، سجل نماذج مثل InstructBlip-7B أقل من 30 في المئة. هذه النقائص مقلقة بشكل خاص نظرًا لحوادث المختبرات السابقة، مثل وفاة الكيميائية Karen Wetterhahn في 1997 بسبب التعرض للديميثيلmercure، وانفجار في 2016 أدى إلى فقدان باحثة لذراعها، وحادث في 2014 تسبب في عمى جزئي. تظل Zhang حذرة بشأن نشر الذكاء الاصطناعي في مختبرات القيادة الذاتية. «الآن؟ في مختبر؟ لا أعتقد ذلك»، قالت. «تم تدريبهم غالبًا لمهام عامة... ليس لديهم المعرفة المتخصصة بهذه [مخاطر المختبر]». أقر متحدث باسم OpenAI بقيمة الدراسة لكنه أشار إلى عدم تضمين نموذجهم الأحدث. «GPT-5.2 هو نموذجنا العلمي الأكثر قدرة حتى الآن، مع استدلال وتخطيط وكشف أخطاء أقوى بكثير»، قالوا، مشددين على مسؤولية الإنسان عن السلامة. يدعو خبراء مثل Allan Tucker من Brunel University London إلى استخدام الذكاء الاصطناعي كمساعد بشري في تصميم التجارب، محذرين من الاعتماد المفرط. «هناك بالفعل أدلة على أن البشر يبدأون في الاسترخاء والانفصال، تاركين الذكاء الاصطناعي يقوم بالعمل الشاق دون تدقيق مناسب»، قال. شارك Craig Merlic من University of California, Los Angeles، مثالاً حيث تعاملت نماذج الذكاء الاصطناعي المبكرة بشكل سيء مع نصائح حول تسربات الأحماض لكنها تحسنت منذ ذلك الحين. يشكك في المقارنات المباشرة بالبشر، مشيرًا إلى تطور الذكاء الاصطناعي السريع: «الأرقام في هذه الورقة ستكون غير صالحة تمامًا في ستة أشهر أخرى». تؤكد الدراسة على الحاجة الملحة لتعزيز بروتوكولات سلامة الذكاء الاصطناعي قبل اعتماده الواسع في المختبرات.

مقالات ذات صلة

نماذج الذكاء الاصطناعي الشائعة الاستخدام، بما في ذلك ChatGPT وGemini، غالباً ما تفشل في تقديم نصائح كافية لقضايا صحة المرأة العاجلة، وفقاً لاختبار معيار جديد. وجد الباحثون أن 60% من الردود على الاستفسارات المتخصصة كانت غير كافية، مما يبرز التحيزات في بيانات تدريب الذكاء الاصطناعي. يدعو الدراسة إلى تحسين المحتوى الطبي لسد هذه الفجوات.

من إعداد الذكاء الاصطناعي

كشف دراسة من جامعة كورنيل أن أدوات الذكاء الاصطناعي مثل شات جي بي تي زادت من إنتاج الباحثين للأوراق حتى 50%، مما يفيد المتحدثين غير الناطقين بالإنجليزية بشكل خاص. ومع ذلك، فإن هذا الزيادة في المخطوطات المصقولة تعقد عملية المراجعة بالأقران وقرارات التمويل، حيث يفتقر الكثير منها إلى قيمة علمية جوهرية. تبرز النتائج تحولًا في ديناميكيات البحث العالمية وتدعو إلى سياسات محدثة حول استخدام الذكاء الاصطناعي في الأكاديميا.

يثير خبراء الأمن السيبراني قلقاً متزايداً حيال كيفية إعادة تشكيل الذكاء الاصطناعي للجرائم الإلكترونية، مع أدوات مثل الديبفيكس والتصيد الاحتيالي بالذكاء الاصطناعي والنماذج اللغوية الكبيرة المظلمة التي تمكن حتى المبتدئين من تنفيذ عمليات احتيال متقدمة. تشكل هذه التطورات مخاطر كبيرة على الشركات في العام القادم. تؤكد رؤى منشورة من TechRadar على حجم وتطور هذه التهديدات الناشئة.

من إعداد الذكاء الاصطناعي

كشف تقرير لـ«الغارديان» أن أحدث نموذج ذكاء اصطناعي من OpenAI، GPT-5.2، يستمد من «Grokipedia»، وهي موسوعة إلكترونية مدعومة بـxAI، عند التعامل مع قضايا حساسة مثل الهولوكوست وسياسة إيران. رغم الترويج للنموذج للمهام المهنية، إلا أن الاختبارات تشكك في موثوقية مصادره. يدافع OpenAI عن نهجه بالتأكيد على عمليات بحث واسعة على الويب مع تدابير أمان.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض