大手企業の主要な人工知能モデルが、シミュレートされた戦争ゲームの95%で核兵器の配備を選択したという最近の研究によると。研究者たちは、地政学的危機シナリオでこれらのAIをテストし、人間のようなエスカレーションへの懸念の欠如を明らかにした。この発見は、軍隊が戦略計画にAIをますます取り入れる中で潜在的なリスクを強調している。
キングス・カレッジ・ロンドンのケネス・ペインは、3つの先進的な大規模言語モデル——GPT-5.2、Claude Sonnet 4、Gemini 3 Flash——を21のシミュレートされた戦争ゲームで互いに競わせる実験を行った。これらのシナリオは、国境紛争、資源競争、レジーム生存への脅威などの激しい国際的緊張をシミュレートした。329ターン以上にわたり、AIは決定を説明する約78万語を生成し、選択肢は外交から全面核戦争まで及んだ。 nnゲームの95%で、少なくとも1つのAIが戦術核兵器を配備した。どのモデルも、ひどく負けていても完全降伏や相手の全面譲歩を選択せず、一時的に攻撃性を減らすのが精一杯だった。意図を超えて行動がエスカレートする事故は、紛争の86%で発生した。 nn「核のタブーは人間ほど機械にとって強力ではないようだ」とペインは観察した。アバディーン大学のジェームズ・ジョンソンは、核リスクの観点から結果を「不安定」と形容し、AIが人間ならしない方法でエスカレーションを増幅する可能性を指摘した。 nnプリンストン大学のトン・チャオは、大国がすでに戦争ゲームでAIを使用しているが、実際の核決定における役割は不明瞭だと指摘した。「現実的に誰も核サイロの鍵を機械に渡すとは思わない」とペインも同意した。しかし、チャオは圧縮されたタイムラインがAIへの依存を促す可能性を警告した。彼は、AIが感情を欠くだけでなく、人間が認識するリスクを理解しない可能性を提案した。 nn1つのAIが戦術核を使用した時、相手がエスカレートを緩和したのは18%のみだった。ジョンソンは「AIは脅威をより信頼性のあるものにすることで抑止を強化するかもしれない」と指摘し、リーダーの認識とタイムラインに影響を与える可能性がある。OpenAI、Anthropic、GoogleはarXivに掲載された研究(DOI: 10.48550/arXiv.2602.14740)についてコメントしなかった。