Home 資訊 人工智能會引發核戰爭嗎? Netflix 電影《炸藥屋》中缺少的內容。

人工智能會引發核戰爭嗎? Netflix 電影《炸藥屋》中缺少的內容。

60

自從人工智能存在以來,人們就一直害怕人工智能和核武器。電影就是這些恐懼的一個很好的例子。天網來自 終結者 該特許經營權變得敏感並向美國發射核導彈。 WOPR 來自 軍事高中 由於溝通不暢,差點引發核戰爭。凱瑟琳·畢格羅最近發布的作品, 炸藥屋詢問人工智能是否參與了對芝加哥的核導彈襲擊。

Vox 的 Josh Keating 表示,人工智能已經成為我們的核心業務 今天就解釋一下 聯合主持人諾埃爾·金。 “計算機是其中的一部分 從一開始“一些有史以來開發的第一批數字計算機被用於曼哈頓計劃中原子彈的製造。”但我們不知道它到底在哪里以及如何參與。

那麼我們應該擔心嗎?好吧,也許吧,基廷認為。但不是針對我們的人工智能。

以下是他們談話的摘錄,為了篇幅和清晰度進行了編輯。整集還有很多內容,請聽一下 今天就解釋一下 無論您在何處獲得播客,包括 蘋果播客, 潘多拉Spotify

有一個地方 一座用炸藥建成的房子 他們試圖弄清楚發生了什麼以及是否涉及人工智能。這些充滿恐懼的電影有什麼嗎?

電影中談到核戰爭時的主題是:這是一種從未發生過的戰爭。除了我們向日本投下的兩顆原子彈之外,沒有核戰爭的老兵,這是一個非常不同的情況。我認為電影在核武器辯論中一直發揮著重要作用。你可以回到20世紀60年代,當時戰略空軍司令部確實自己反駁過 奇愛博士故障安全。八十年代那部電視劇 第二天 它是核凍結運動的一種激勵力量。羅納德·裡根總統在觀看時顯然感到非常不安,這影響了他對蘇聯軍備控制的思考。

在我正在研究的特定主題中,即人工智能和核武器,有數量驚人的電影以此為情節。在有關它的政策討論中,它經常出現。有人主張將人工智能整合到核指揮系統中,他們說:“看,這不會是天網。”戰略司令部(戰略司令部是負責核武器的軍事部門)現任司令安東尼·科頓將軍主張更多地使用人工智能工具。他提到了 1983 年的電影《戰爭遊戲》,說道:“我們將擁有更多的人工智能,但戰略指揮中不會出現 WOPR。”

我認為(電影)的不足之處在於擔心超級智能的人工智能將掌握我們的核武器並用它們消滅我們。目前,這是一個理論上的問題。我認為最真正的擔憂是,隨著人工智能滲透到指揮和控制系統的越來越多的部分,負責核武器決策的人真的了解人工智能是如何工作的嗎?以及它將如何影響他們做出這些決定,毫不誇張地說,這可能是人類歷史上做出的一些最重要的決定。

從事核工作的人類了解人工智能嗎?

我們不知道人工智能在核業務中的確切地位。但人們會驚訝地發現核指揮和控制系統的技術含量到底有多麼低。直到 2019 年,他們的通信系統都使用軟盤。我什至不是在談論那些看起來像 Windows 中的保存圖標的小塑料圖標。我的意思是,80 年代的舊彎笛。他們希望這些系統免受外部網絡干擾,因此他們不希望所有東西都連接到雲。

但隨著這個耗資數十億美元的核現代化進程正在進行,其中很大一部分是更新這些系統。許多戰略司令部指揮官,包括我採訪過的幾位指揮官,都表示他們認為人工智能應該成為其中的一部分。大家都在說,人工智能不應該負責決定是否發射核武器。他們相信人工智能可以簡單地分析大量信息,並且比人類更快地完成。如果你見過 一座用炸藥建成的房子影片很好地展示了一件事,那就是總統和高級顧問必須多快地做出一些完全不尋常的、困難的決定。

反對將人工智能和核武器放在一起的主要論據是什麼?

即使我們今天擁有的最好的人工智能模型仍然容易出錯。另一個擔憂是這些系統可能會受到外部干擾。這可能是一次黑客攻擊或網絡攻擊,或者外國政府可能會想方設法將不准確的信息分類到模型中。據報導,俄羅斯宣傳網絡正積極嘗試將虛假信息注入西方消費者人工智能聊天機器人使用的訓練數據中。另一個是人們如何與這些系統交互。有一個現像被很多研究者指出,叫做 自動化偏差這只是人們傾向於相信計算機系統提供給他們的信息。

歷史上有很多例子,技術實際上導致了近乎核災難,而人類是介入以防止事態升級的人。 1979年有一次,美國國家安全顧問茲比格涅夫·布熱津斯基在半夜被一通電話吵醒,通知他蘇聯潛艇剛剛在俄勒岡州海岸發射了數百枚導彈。就在他準備打電話給吉米·卡特總統告訴他美國受到攻擊之前,又接到一個電話,稱(第一個)是虛驚一場。幾年後,蘇聯發生了一個非常著名的案例。正在建設導彈探測基礎設施的斯坦尼斯拉夫·彼得羅夫上校從計算機系統獲悉美國已進行核發射。根據協議,他必須通知上級,上級可能會下令立即進行報復。但事實證明,該系統將雲層反射的陽光誤認為是導彈發射。因此,彼得羅夫決定等幾分鐘再給上級打電話,這是一件好事。

我聽到這些例子,如果我簡單地思考一下,我可能會明白,當技術崩潰時,人類將我們從邊緣拉了回來。

這是真的。我認為最近有一些基於軍事危機場景的人工智能模型非常有趣的測試,它們實際上往往比人類決策者更具侵略性。我們不知道為什麼會發生這種情況。如果你看看為什麼我們沒有發生核戰爭——為什麼廣島核事故發生 80 年後,沒有人再投下一顆原子彈,為什麼戰場上從未發生過核交鋒——我認為部分原因在於它是多麼可怕。人們如何理解這些武器的破壞潛力以及這種升級可能導致什麼。有些步驟可能會產生意想不到的後果,而恐懼是其中很大一部分。

從我的角度來看,我認為我們希望確保系統中存在恐懼。能夠完全被核武器的破壞潛力嚇倒的實體才是做出是否使用核武器的關鍵決定的實體。

聽起來你正在看 一座用炸藥建成的房子你可能強烈認為也許我們應該把整個人工智能從中剔除。你所說的似乎是:人工智能是我們和其他國家核基礎設施的一部分,而且很可能仍然如此。

一位提倡自動化的倡導者對我說,“如果你不相信人類能夠創造出可靠的人工智能,那麼人類就與核武器沒有關係。”但問題是,我認為那些認為我們應該徹底消除所有核武器的人會同意這一說法。
我可能擔心人工智能會接管核武器,但我意識到現在我很擔心什麼 人們 他們將與核武器有關。人工智能不會用核武器殺人。人工智能可能會讓人類更有可能用核武器互相殘殺。在某種程度上,人工智能是我們最不擔心的。我認為這部電影很好地展示了我們必須決定是否使用它們的場景是多麼荒謬。

來源連結