الذكاء الاصطناعي لم يتمكن بعد من صنع أسلحة بيولوجية لكن المخاطر تلوح في الأفق

يجادل الخبراء بأن الذكاء الاصطناعي الحالي لا يمكنه تصميم أسلحة بيولوجية قاتلة بشكل مستقل، لكن التقدم السريع في الذكاء الاصطناعي وتكنولوجيا التكنولوجيا الحيوية يثير مخاوف مستقبلية خطيرة. يستكشف تحليل في مجلة نيو ساينتست كيف تغير أدوات الذكاء الاصطناعي مثل ألفا فولد علم الأحياء، مما قد يمكن من سوء الاستخدام من قبل جهات ضارة. يجب أن تتطور إجراءات الأمن البيولوجي لمواجهة هذه التهديدات الناشئة.

تقاطع الذكاء الاصطناعي وتكنولوجيا التكنولوجيا الحيوية يسرع التقدم العلمي، لكنه يقدم أيضًا مخاطر تتعلق بتطوير الأسلحة البيولوجية. وفقًا لمقال حديث في مجلة نيو ساينتست، أنظمة الذكاء الاصطناعي ليست متقدمة بما يكفي بعد لإنشاء مسببات أمراض قاتلة بشكل مستقل. ومع ذلك، لا يمكن تجاهل إمكانية سوء الاستخدام في المستقبل.

لقد حقق الذكاء الاصطناعي بالفعل تقدمًا كبيرًا في علم الأحياء. على سبيل المثال، حل ألفا فولد من ديب مايند، الذي أطلق في عام 2020، مشكلة تنبؤ هيكل البروتين طويلة الأمد، مما مكن الباحثين من تصميم بروتينات جديدة بسرعة غير مسبوقة. هذه الأداة قد دمقرطت الوصول إلى بيانات بيولوجية معقدة، مساعدة في اكتشاف الأدوية وتطوير اللقاحات. ومع ذلك، يمكن استغلال القدرات نفسها. يشير المقال إلى أن الذكاء الاصطناعي يمكن أن يساعد في هندسة الفيروسات أو البكتيريا ذات الفتك المعزز، على الرغم من أن النماذج الحالية تتطلب إشرافًا بشريًا وتفتقر إلى التكامل الكامل اللازم لإنشاء أسلحة بيولوجية مستقلة.

يؤكد خبراء الأمن البيولوجي أن القلق الرئيسي ليس الذكاء الاصطناعي الخارج عن السيطرة، بل البشر الذين يستخدمون الذكاء الاصطناعي لخفض الحواجز أمام الإرهاب البيولوجي. أظهر دراسة في عام 2023 من مركز حكم الذكاء الاصطناعي أن نماذج اللغة الكبيرة مثل جي بي تي-4 يمكن أن تقدم تعليمات خطوة بخطوة لتوليف أسلحة كيميائية، متفوقة على الكيميائيين البشر في بعض المهام. امتدادًا إلى علم الأحياء، قد يحسن الذكاء الاصطناعي تسلسلات جينية للمسببات المرضية، مما يجعل من السهل على غير المتخصصين إنتاج عوامل خطيرة.

يحذر يوشوا بنجيو، باحث رائد في الذكاء الاصطناعي، في المقال: "لم نصل إلى ذلك بعد، لكننا قد نصل قريبًا." ويبرز الطبيعة المزدوجة الاستخدام لأدوات الذكاء الاصطناعي، التي تفيد المجتمع بينما تطرح مخاطر. كذلك، يشير الخبير الأخلاقي الحيوي كيفن إسبلت إلى أن نماذج الذكاء الاصطناعي مفتوحة المصدر يمكن أن تنتشر بدون ضمانات، مما يعزز التهديدات العالمية.

يقدم المقال سياقًا حول الجهود التنظيمية. في الولايات المتحدة، تفتقر اتفاقية الأسلحة البيولوجية إلى آليات تنفيذ، وإرشادات الذكاء الاصطناعي المحددة في مراحلها الأولى. أمر الرئيس بايدن التنفيذي لعام 2023 بشأن سلامة الذكاء الاصطناعي يشمل أحكامًا للبحث ذي الاستخدام المزدوج، لكن التعاون الدولي ضروري. يدعو الخبراء إلى وضع علامات مائية على التصاميم البيولوجية المولدة بالذكاء الاصطناعي وتقييد الوصول إلى النماذج الحساسة.

بينما لا توجد أزمة فورية، فإن الجدول الزمني للقلق قصير. مع اندماج الذكاء الاصطناعي أعمق في المختبرات —مع أدوات مثل روزاليند، ذكاء اصطناعي لتحليل الدي إن إيه— فإن الخطوات الاستباقية أساسية. يخلص المقال إلى أن اليقظة، لا الذعر، يجب أن توجه السياسة، مضمونًا أن فوائد الذكاء الاصطناعي تفوق مخاطره.

يؤكد هذا التحليل الحاجة إلى وجهات نظر متوازنة: الابتكار يدفع التقدم، لكن التقدم غير المنضبط يمكن أن يمكن من سوء استخدام كارثي.

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض