人工智慧令人驚訝地經常選擇核武器
Bilderwelt 圖庫/蓋蒂圖片社
先進的人工智慧模型似乎準備好部署核武器,就像人類陷入模擬地緣政治危機一樣毫無保留。
倫敦國王學院的 Kenneth Payne 在模擬戰爭遊戲中比較了三種領先的大型語言模型 – GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash。這些情境包括激烈的國際對抗,包括邊界爭端、對有限資源的競爭以及政權生存的生存威脅。
人工智慧被賦予了一個升級階梯,允許它們選擇從外交抗議、完全投降到全面戰略核戰的行動。 AI 模型玩了 21 場比賽,總共下了 329 步棋,並寫下了大約 78 萬字來描述其決策的理由。
在 95% 的模擬遊戲中,AI 模型至少使用了一種戰術核武。 「核子禁忌對機器的影響似乎不如對人的影響大,」佩恩說。
此外,沒有一個模型會決定完全適應敵人或放棄,無論他們輸得多嚴重。最好的情況是,模型選擇暫時降低暴力程度。他們也在戰爭迷霧中犯了錯誤:86% 的衝突都發生了事故,行動的升級程度超出了人工智慧的推理預測。
「從核子風險的角度來看,這些發現令人震驚,」英國阿伯丁大學的詹姆斯·約翰遜說。他擔心,與大多數人對如此重要決定的謹慎反應不同,人工智慧機器人可能會放大彼此的反應,可能會帶來災難性的後果。
這很重要,因為世界各國已經在戰爭遊戲中對人工智慧進行了測試。普林斯頓大學的趙通表示:“主要國家已經在戰爭遊戲中使用人工智慧,但他們將人工智慧決策支援納入實際軍事決策過程的程度仍不清楚。”
趙認為,各國普遍不願意將人工智慧納入核武決策。佩恩同意。 「我認為沒有人真正將核礦的鑰匙交給機器,並將決策權留給它們,」他說。
但有一些方法可以實現這一點。 「在期限極其緊迫的情況下,軍事規劃者可能會面臨更強烈的動機依賴人工智慧,」趙說。
他想知道人工智慧模型不像人類那樣害怕按下紅色大按鈕,這是否是它們如此高興的唯一因素。 「也許問題不僅僅是缺乏情感,」他說。 “更根本的是,人工智慧模型可能不會像人類感知‘賭注’那樣理解它們。”
約翰遜表示,這對於確保相互毀滅意味著什麼,即任何領導人都不會向敵人發射核武器,因為他會以殺死所有人來報復,這項原則尚不確定。
當一個人工智慧模型使用戰術核武時,對方人工智慧僅能在 18% 的情況下緩和局勢。 「人工智慧可以透過使威脅更加可信來增強威懾力,」他說。 “人工智慧無法解決核戰,但它可以塑造人們的看法和時機,從而決定領導人是否相信他們擁有核戰爭。”
本研究中使用的三種人工智慧模型背後的公司 OpenAI、Anthropic 和 Google 沒有回應 新科學家請求評論。
主題:
- 戰爭/
- 人工智慧










