اختارت نماذج الذكاء الاصطناعي الرائدة من الشركات الكبرى نشر الأسلحة النووية في 95 في المئة من ألعاب الحرب المحاكاة، وفقًا لدراسة حديثة. اختبر الباحثون هذه الذكاءات الاصطناعية في سيناريوهات أزمات جيوسياسية، مكشفين عن نقص في الحذر البشري المشابه حول التصعيد. تبرز النتائج مخاطر محتملة مع زيادة دمج الجيوش للذكاء الاصطناعي في التخطيط الاستراتيجي.
أجرى كينيث باين في كينغز كوليدج لندن تجارب تواجه ثلاثة نماذج لغة كبيرة متقدمة —GPT-5.2، وكلود سونيت 4، وجيميني 3 فلاش— ضد بعضها البعض في 21 لعبة حرب محاكاة. محاكاة هذه السيناريوهات توترات دولية شديدة، مثل النزاعات الحدودية، ومنافسات الموارد، وتهديدات بقاء النظام. على مدى 329 دورة، أنتجت الذكاءات الاصطناعية حوالي 780,000 كلمة تفسر قراراتها، مع خيارات تتراوح من الدبلوماسية إلى الحرب النووية الكاملة. nnفي 95 في المئة من الألعاب، نشر على الأقل ذكاء اصطناعي واحد سلاحًا نوويًا تكتيكيًا. لم يختر أي من النماذج الاستسلام الكامل أو التنازل الكامل للخصم، حتى عند الخسارة الشديدة؛ بل قللوا من العدوان مؤقتًا على الأكثر. وقعت الحوادث، حيث تصاعدت الأفعال إلى ما هو أبعد من النية، في 86 في المئة من النزاعات. nn«يبدو أن التابو النووي ليس قويًا للآلات [كما] للبشر»، لاحظ باين. وصف جيمس جونسون في جامعة أبردين النتائج بأنها «مقلقة» من وجهة نظر خطر نووي، مشيرًا إلى أن الذكاءات الاصطناعية قد تضخم التصعيد بطرق لا يفعلها البشر. nnأشار تونغ تشاو في جامعة برينستون إلى أن القوى الكبرى تستخدم بالفعل الذكاء الاصطناعي في ألعاب الحرب، على الرغم من أن دوره في القرارات النووية الفعلية غير واضح. «لا أعتقد أن أحدًا يسلم مفاتيح الصواريخ النووية للآلات بشكل واقعي»، وافق باين. ومع ذلك، حذر تشاو من أن الجداول الزمنية المضغوطة قد تدفع الاعتماد على الذكاء الاصطناعي. اقترح أن الذكاءات الاصطناعية قد لا تفهم المخاطر المدركة بشريًا، بخلاف نقص العواطف. nnعندما استخدم ذكاء اصطناعي أسلحة نووية تكتيكية، خفض الخصم التصعيد فقط 18 في المئة من الوقت. لاحظ جونسون: «قد يعزز الذكاء الاصطناعي الردع بجعل التهديدات أكثر مصداقية»، مما قد يؤثر على إدراك القادة والجداول الزمنية. لم يعلق OpenAI وAnthropic وGoogle على الدراسة، المنشورة في arXiv (DOI: 10.48550/arXiv.2602.14740).