在唐納德·特朗普總統對伊朗發動戰爭之前的一周,五角大樓正在進行另一場不同的戰鬥:與人工智慧公司 Anthropic 爭奪其旗艦人工智慧模型 Claude。
週五,當川普表示聯邦政府將立即停止使用 Anthropic 的人工智慧工具時,這場衝突達到了緊要關頭。然而,據《華爾街日報》報道,五角大廈在周六早上對伊朗發動襲擊時使用了這些工具。
專家們看到克勞德出現在前線是否感到驚訝?
「一點也不,」新美國安全中心執行副總裁兼作家保羅·沙爾 (Paul Scharre) 四大戰場:人工智慧時代的力量他告訴沃克斯。
Scharre 表示:“近十年來,我們看到軍方使用圖像分類器等狹義人工智慧系統來識別無人機和視訊串流中的物件。最新的是 ChatGPT 和 Anthropic 的 Claude 等大型語言模型,據報道軍方在伊朗的行動中使用了這些模型。”
薩爾對我說話 今天就解釋一下 共同主持拉梅斯瓦拉姆 (Sean Rameswaram),探討人工智慧和軍事如何日益交織在一起,以及這種結合對未來戰爭可能意味著什麼。
以下是他們談話的摘錄,為了篇幅和清晰度進行了編輯。整集還有很多內容,請聽一下 今天就解釋一下 無論您在何處觀看播客,包括 Apple Podcasts、Pandora 和 Spotify。
人們想知道Claude或ChatGPT如何打這場戰爭。我們知道嗎?
我們還不知道。我們可以根據該技術的功能做出一些有根據的猜測。人工智慧技術確實非常擅長處理大量訊息,美軍已經襲擊了伊朗的一千多個目標。
然後,他們必須找到方法來處理有關這些目標的信息(例如,他們擊中的目標的衛星圖像),尋找新的潛在目標,對它們進行優先級排序,處理這些信息,並使用人工智能以機器速度而不是人類速度來完成這些任務。
我們是否更了解軍方如何在委內瑞拉等地使用人工智慧來進行將尼古拉斯馬杜羅帶到布魯克林的襲擊?因為我們最近發現那裡也使用了人工智慧。
我們所知道的是,Anthropic 的人工智慧工具已被嵌入美國軍方的秘密網路中。他們可以處理機密資訊來處理訊息,以幫助計劃行動。
我們有一個如此誘人的細節,這些工具被用於馬杜羅的突襲。我們不知道具體是怎麼做的。
我們已經看到人工智慧技術在其他衝突中廣泛使用——在烏克蘭、以色列在加薩的行動中,做一些不同的事情。烏克蘭在不同背景下使用人工智慧的方式之一是無人機本身的自主性。
當我在烏克蘭時,我看到烏克蘭無人機操作員和工程師展示的其中一個東西是一個小盒子,就像一包香煙,你可以將其放入小型無人機中。一旦人類鎖定目標,無人機就可以自行實施攻擊。這已經被小規模地使用了。
我們看到人工智慧開始滲透到軍事行動的所有這些方面,包括情報、規劃、後勤,而且在無人機完成攻擊的使用方面也處於最末端。
以色列和加薩怎麼樣?
有報導稱,以色列國防軍如何在加薩使用人工智慧——不一定是大語言模型,而是機器學習系統,可以合成和組合大量資訊、地理位置數據、手機數據和連接、社交媒體數據,以非常快速地處理所有這些資訊來開發目標包,特別是在以色列行動的早期階段。
但這引發了關於人類參與這些決策的棘手問題。人們提出的批評之一是,人們仍在批准這些目標,但點擊量和必須處理的資訊量是如此之大,以至於在某些情況下,人類的監督可能不僅僅是橡膠。
問題是:這是要去哪裡?隨著時間的推移,我們是否正走在這樣的軌道上:人類被推出循環,我們會看到,完全自主的武器可以自行決定在戰場上殺死誰?
這就是事情發展的方向。今天沒有人釋放出一大群殺手機器人,但軌跡是朝著那個方向的。
我們看到伊朗一所學校遭到轟炸的報道,其中(175 人)被殺--其中許多是年輕女孩、兒童。這顯然是人為錯誤。
我們是否認為自主武器會犯下同樣的錯誤,或者它們會比我們更擅長戰爭?
「自主武器會比人類更好嗎」這個問題是圍繞這項技術爭論的關鍵問題之一。自主武器的支持者會說,人類總是會犯錯,而機器或許可以做得更好。
部分取決於使用這項技術的軍隊如何努力避免錯誤。如果士兵不關心平民傷亡,那麼人工智慧可以讓士兵更快地擊中目標,在某些情況下甚至更快地實施暴行,如果這就是士兵想要做的。
我認為這是一個非常重要的機會,可以更精確地使用科技。如果你看看上個世紀左右的精確導引武器的長弧,你會發現它顯示出更高的精確度。
如果你看一下美國現在襲擊伊朗的例子,就值得將其與我們在第二次世界大戰中看到的針對城市的大規模空中轟炸行動進行對比,例如,在歐洲和亞洲,整個城市被摧毀,因為炸彈根本不准確,而且空軍投下了大量彈藥,試圖擊中一個要素。
人工智慧可能會隨著時間的推移而改進,讓士兵能夠擊中軍事目標並避免平民傷亡。現在,如果資料錯誤並且清單中的目標錯誤,它會非常準確地擊中錯誤的東西。人工智慧不一定能解決這個問題。
另一方面,我看到裡面有一份報告 青年科學家 這是相當令人震驚的。標題是“人工智慧無法停止在戰爭遊戲模擬中推薦核打擊」。
他們寫了一項研究,其中 OpenAI、Anthropic 和 Google 的模型 95% 的時間選擇在模擬戰爭遊戲中使用核武器,我認為這比我們人類通常使用核武器的情況要多一些。這應該會嚇到我們嗎?
有點令人擔憂。幸運的是,據我所知,沒有人將大型語言模型與使用核武的決策聯繫起來。但我認為它展示了人工智慧系統的一些奇怪的故障模式。
他們傾向於誹謗。他們只是傾向於同意你所說的一切。有時他們可以做到荒謬的地步,你知道,「這太棒了,」模型會告訴你,「這是一件天才的事情。」你說:「我不這麼認為。」當你談論情報分析時,這才是一個真正的問題。
我們認為 ChatGPT 現在正在告訴 Pete Hegseth 這件事嗎?
我希望不會,但他的家人可能會告訴他這一點。
你從這些工具的絕對「唯唯諾諾」效應開始,它們不僅容易產生謬誤(這是它們有時編造事情的一種奇特方式),而且這些模型實際上可以以強化現有人類偏見、強化數據偏見或人們只是信任它們的方式使用。
有這樣一種說法,「人工智慧這麼說,所以它一定是正確的。」人們相信它,而我們真的不應該相信。我們應該更加懷疑。








