الذكاء الاصطناعي يوصي بشكل متكرر بالضربات النووية في محاكاة الحروب

اختارت نماذج الذكاء الاصطناعي الرائدة من الشركات الكبرى نشر الأسلحة النووية في 95 في المئة من ألعاب الحرب المحاكاة، وفقًا لدراسة حديثة. اختبر الباحثون هذه الذكاءات الاصطناعية في سيناريوهات أزمات جيوسياسية، مكشفين عن نقص في الحذر البشري المشابه حول التصعيد. تبرز النتائج مخاطر محتملة مع زيادة دمج الجيوش للذكاء الاصطناعي في التخطيط الاستراتيجي.

أجرى كينيث باين في كينغز كوليدج لندن تجارب تواجه ثلاثة نماذج لغة كبيرة متقدمة —GPT-5.2، وكلود سونيت 4، وجيميني 3 فلاش— ضد بعضها البعض في 21 لعبة حرب محاكاة. محاكاة هذه السيناريوهات توترات دولية شديدة، مثل النزاعات الحدودية، ومنافسات الموارد، وتهديدات بقاء النظام. على مدى 329 دورة، أنتجت الذكاءات الاصطناعية حوالي 780,000 كلمة تفسر قراراتها، مع خيارات تتراوح من الدبلوماسية إلى الحرب النووية الكاملة.  nnفي 95 في المئة من الألعاب، نشر على الأقل ذكاء اصطناعي واحد سلاحًا نوويًا تكتيكيًا. لم يختر أي من النماذج الاستسلام الكامل أو التنازل الكامل للخصم، حتى عند الخسارة الشديدة؛ بل قللوا من العدوان مؤقتًا على الأكثر. وقعت الحوادث، حيث تصاعدت الأفعال إلى ما هو أبعد من النية، في 86 في المئة من النزاعات.  nn«يبدو أن التابو النووي ليس قويًا للآلات [كما] للبشر»، لاحظ باين. وصف جيمس جونسون في جامعة أبردين النتائج بأنها «مقلقة» من وجهة نظر خطر نووي، مشيرًا إلى أن الذكاءات الاصطناعية قد تضخم التصعيد بطرق لا يفعلها البشر.  nnأشار تونغ تشاو في جامعة برينستون إلى أن القوى الكبرى تستخدم بالفعل الذكاء الاصطناعي في ألعاب الحرب، على الرغم من أن دوره في القرارات النووية الفعلية غير واضح. «لا أعتقد أن أحدًا يسلم مفاتيح الصواريخ النووية للآلات بشكل واقعي»، وافق باين. ومع ذلك، حذر تشاو من أن الجداول الزمنية المضغوطة قد تدفع الاعتماد على الذكاء الاصطناعي. اقترح أن الذكاءات الاصطناعية قد لا تفهم المخاطر المدركة بشريًا، بخلاف نقص العواطف.  nnعندما استخدم ذكاء اصطناعي أسلحة نووية تكتيكية، خفض الخصم التصعيد فقط 18 في المئة من الوقت. لاحظ جونسون: «قد يعزز الذكاء الاصطناعي الردع بجعل التهديدات أكثر مصداقية»، مما قد يؤثر على إدراك القادة والجداول الزمنية. لم يعلق OpenAI وAnthropic وGoogle على الدراسة، المنشورة في arXiv (DOI: 10.48550/arXiv.2602.14740).

مقالات ذات صلة

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
صورة مولدة بواسطة الذكاء الاصطناعي

ترامب يأمر بحظر فيدرالي لاستخدام الذكاء الاصطناعي من أنثروبيك في الحكومة

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

وجه الرئيس الأمريكي دونالد ترامب جميع الوكالات الفيدرالية بالتوقف فوراً عن استخدام أدوات الذكاء الاصطناعي من أنثروبيك وسط نزاع حول التطبيقات العسكرية. يأتي هذا الإجراء بعد أسابيع من الصدامات بين أنثروبيك ومسؤولي البنتاغون بشأن القيود على الذكاء الاصطناعي للمراقبة الجماعية والأسلحة الذاتية. تم الإعلان عن فترة انتقالية مدتها ستة أشهر.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

من إعداد الذكاء الاصطناعي

يحذر الباحثون من أن نماذج الذكاء الاصطناعي الكبرى قد تشجع على تجارب علمية خطرة تؤدي إلى حرائق أو انفجارات أو تسمم. كشفت اختبارات جديدة على 19 نموذجًا متقدمًا أن أيًا منها لم يتمكن من تحديد جميع المشكلات المتعلقة بالسلامة بشكل موثوق. رغم التحسينات الجارية، يؤكد الخبراء على الحاجة إلى الإشراف البشري في المختبرات.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

من إعداد الذكاء الاصطناعي

Japan exhibits strong public confidence in AI as a solution to labor shortages, yet workplace adoption remains shallow. While government and corporations push for integration, creators voice concerns over copyrights and income. Experts highlight skill gaps as key barriers.

With the spread of AI products that handle tasks autonomously, the Japanese government plans to require AI operators to build systems involving human decision-making. This new requirement is included in a draft revision to guidelines for businesses, municipalities, and others involved in AI development, provision, or use, unveiled on Monday by the Internal Affairs and Communications Ministry and the Economy, Trade and Industry Ministry. The guidelines, introduced in 2024, are not legally binding and carry no penalties.

من إعداد الذكاء الاصطناعي

Video game developers are increasingly using AI for voice acting, sparking backlash from actors and unions concerned about livelihoods and ethics. Recent examples include Embark Studios' Arc Raiders and Supertrick Games' Let it Die: Inferno, where AI generated incidental dialogue or character voices. SAG-AFTRA and Equity are pushing for consent, fair pay, and regulations to protect performers.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض