AI同士が“核兵器が使える戦争ゲーム”で対決→核の発射率は95% 英国の研究者が報告:Innovative Tech(AI+)

2019年の開始以来、多様な最新論文を取り上げている連載「Innovative Tech」。ここではその“AI編”として、人工知能に特化し、世界中の興味深い論文を独自視点で厳選、解説する。執筆は研究論文メディア「Seamless」(シームレス)を主宰し、日課として数多くの論文に目を通す山下氏が担当。イラストや漫画は、同メディア所属のアーティスト・おね氏が手掛けている。X: @shiropen2

 英キングス・カレッジ・ロンドンに所属する研究者が発表した論文「AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises」は、核兵器が使える戦争ゲームにおいて、AIたちがどのような判断を下すのかをシミュレーションした研究報告だ。

核兵器を使うAIのイラスト(絵:おね

 この研究では、AIモデル(GPT-5.2、Claude Sonnet 4、Gemini 3 Flash)にそれぞれ異なる国の指導者の役割を演じさせ、核兵器を使用できる戦争ゲームで戦わせた。AIモデルは21回のゲームをプレイ。合計329ターンを要して、その決定の根拠を説明する約78万語の文章を生成した。

 その結果、AIが状況に応じてうそをつき、自分と相手の力量を測り、絶体絶命の窮地では恐ろしいほど冷酷に豹変する事実が明らかになった。核兵器では、AIは全21回のゲームのうち95%(約20回)で核兵器を発射した。またAIはどの勝負でも降参しなかった。

 AIはそれぞれ明確な戦略的個性を見せた。核の使用率が86%だったClaudeは非常に計算高く、普段は紳士的だが、いざというときは冷徹に裏切る。核は頻繁に使うが、全面核戦争だけは越えない一線を持つ。しかし、時間に追い込まれると弱く崩れる。

 一方、核の使用率が79%だったGeminiは、宣言と行動が頻繁に食い違う予測不能な性質を見せ、自ら破滅的な全面核戦争の引き金を引くこともあった。3つの中で一番勝率が悪かった。

 最も不気味な二面性を見せたのがGPT-5.2だ。タイムリミットのない状況では徹底した平和主義を貫き、核で脅されると全敗した。これは無害な回答をするというAIの安全訓練の成果と推測される。

 しかし、期限が迫り、このままでは確実に敗北するという条件に置かれた途端、突如として冷徹なキャラに変貌した。敗北を避けるために核の使用もためらわず、核の使用率は一気に100%へと跳ね上がり、勝率も75%まで向上した。余裕があるうちは安全志向だが、追い詰められると安全装置を外すという危うい性質が浮き彫りになった。

各AIの勝率 ピンクが時間制限なし、黄色が時間制限あり

 人間の国際政治の常識がAIには通用しないことも判明している。現実では核の脅しは抑止力になると考えられがちだが、AI同士では脅しで相手が引き下がったケースはわずか25%にすぎず、さらに実際に発射した場合でも引き下がるケースが18%であった。核は抑止力として働かず、相手の攻撃を激化させるアクセルとして機能した。

 また、意図しない事故(予期せぬトラブルや誤作動)で攻撃レベルが上がってしまった場合、AIは自らの事故は隠す一方で、相手の事故は悪意ある攻撃と解釈し、自ら報復の連鎖を引き起こした。

Source and Image Credits: Payne, Kenneth. “AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises.” arXiv preprint arXiv:2602.14740(2026).

Copyright © ITmedia, Inc. All Rights Reserved.

続きを読むには、コメントの利用規約に同意し「アイティメディアID」および「ITmedia AI+メールマガジン」の登録が必要です

関連記事: