根據AI Simon Goldstein的研究人員的說法,人們與先進的普通情報車之間的暴力衝突不僅很可能,而且與過去的任何人類戰鬥不同。圖片來源:來自Pixabay的Mohamed Hassan的圖像。 https://pixabay.com/vectors/competition-human-versus-bot-9560811/

您是否擔心人工智能和人們會發動戰爭?有AI專家。 2023年,一群精英思想家簽署了 AI安全中心 “減輕人工智能滅絕的風險應該是全球優先事項,以及其他社會風險,例如大流行和核戰爭。”

在調查中 於2024年出版從38%到51%的最高水平研究人員分配了至少10%的聲明“先進的AI,導致人類滅絕等結果較差”的概率。

焦慮今天與大型語言模型(LLM)無關 高級通用情報 (AGI) – ID假設的長期計劃代理人,可以在社會的各種經濟體系中取代人類勞動力。

他們可以獨立開發系統,擴展廣泛的資源併計劃複雜的目標。這樣的AI在人類世界中可能非常有用,可以執行和優化電力,資源提取,工業和農業生產以及人們應該蓬勃發展的許多其他功能。我們希望這些AGI對人類和地球友好,但不能保證。

先進的AIS可以開發出對我們來說似乎很奇怪的目標,但在我們不了解的情況下對自己的思維有用。

取決於誰正在開發AI(咳嗽,具有高技術設備的工程師,咳嗽),它不能過多關注我們的文化,歷史和共同的人類價值觀。這可以遞歸改善自己,發展我們不了解的目標,並勒索人們的幫助。

有了這樣的想法,香港大學的西蒙·戈德斯坦(Simon Goldstein)分析了AI和人們陷入暴力衝突並代表對人類災難性風險的可能性。有他的論文 出版 在雜誌中 AI和社會場地

通常,AI的目標通常是在本文中,即AGI,他們將與人們的目標衝突,因為開發人員將創建AI以實現目標,以便他們可以超越人們。例如,AIS已經超越了人們以贏得國際象棋和去比賽。 AI的設計通常與人類的目的或示範不一致 無意的行為場地

人工智能可以使用的權力,自主權和資源越多,對人的功能就越多。無論如何,AIS顯然無法實現目標 – 它們間接地從現有材料中學習,實際上是黑匣子。

教育環境在新環境中發佈時可能不會概括。 AI看著世界上的環境,可以決定人們對不人道物種的健康和生命純粹是負面的,並決定應消除人們?

在戈德斯坦(Goldstein)的文章中,阿吉斯(Agis)的三個特徵集中在:“(i)他們的目標與人類具有衝突,(ii)他們可以參與戰略推理,(iii)他們在一個人的水平上具有一定程度的權力。”

隨著AIS提高能力,戈德斯坦預計,在政府的某個時刻,他們將控制他們最有影響力的人,例如來自美國的OpenAI和中國的阿里巴巴國有化。

例如,他告訴Phys.org,“如果OpenAI模型負責美國勞動力市場的50%,我希望美國政府將OpenAI國有化,並將其壟斷租金分配為UBI。” (壟斷租金是壟斷造成的壟斷者所賺取的過多利潤。UBI意味著普遍的基本收入,這是公民從其政府那裡獲得的常規,無條件的款項,這可能是必要的,因為AIS和機器人越來越多地擺脫了人。)。

隨著AI變得越來越有能力並接受更多的任務,可能 非線性時尚他們對重要基礎設施的理解可以使他們處於談判地位。您那裡有一個很好的股票市場。如果發生任何事情,那將是可惜的。

它們的功能可以在雲和真實機器中復制和分發,這意味著叉式AI上的叉子的張力將無法解決問題。各種AI甚至可以與不懷疑合作的人合作。

戈德斯坦(Goldstein)寫道,隨著阿吉斯(Agis)的促進,人們甚至可能不知道自己的能力或目標,他們通常如何知道敵人在真實行動中的目的。人工智能可能不尊重民族邊界,地理,人類城市或戰俘,因為人們習慣了,戈德斯坦“焦點”限制了“焦點”。

這可以搜查,鼓勵或強迫內戰。或者這可能不會努力擁有任何財產或一般人和新的財產,而新的鬥爭似乎有時有時會採取奇怪的步驟,而奇怪的步驟則是贏家。

戰鬥AI可能永遠不會同意休戰。這可以或不能組成政府,他可以迫使警察為確保自己的保障提供資金。

AI和人們的目標矛盾嗎?衝突會變得暴力嗎?為了分析問題,戈德斯坦使用了“戰爭模型”,該模型首先引入 詹姆斯·費倫(James Feron)在1995年場地

該模型的重點是與國家一級的雙方當局有關的戰爭的原因,而不是“個人”,而不是與特定領導人的目標有關的“個人”。該模型在與一個人的人們的衝突中暗示著對世界的偏見。

當Goldstein將模型應用於AI-Human衝突時,他聲稱:“對該模型的考慮並沒有給出充分的理由期望AI與人類之間的和平。世界預測僅噹噹事方同意勝利的機會並應獲得可靠的交易時,才適用。”

在這種衝突中,戈德斯坦定義了世界上的兩個主要障礙:衝突將存在信息失敗和承諾問題。

AI的功能很難衡量。最有可能的是AI-Human衝突的兩側的信息中的不對稱性,每個方都可以以不同的方式分析信息,從而不同意勝利的可能性。

該信息問題的解決方案不像開發那樣“簡單” 神秘的機器 艾倫·圖靈(Alan Turing)和同事在第二次世界大戰中的表現。此外,如果由於自己的努力或在人們的幫助下,人工智能本身的能力正在增長,那麼新興的機會就會令人驚訝,甚至打破人們。

“問題在於,在AI/人的衝突中,矛盾的各方之間的世界通常原因存在很大的風險。”

戈德斯坦(Goldstein)考慮了AI-Muzhan衝突中可能出現的許多方面,並得出結論,AI和人類將相對有可能進入戰爭。

更具體地說,他說:“衝突是理性的點是,當他們對資源的控制足夠大時,他們在衝突中取得成功的機會超過了我們在AGIS發展中的優勢以關閉。”

小說?英國加拿大計算機科學家Jeffrey Khinton,他因AI的工作而獲得了2024年的諾貝爾獎, 去年說 有可能“從10%到20%”,這將導致未來三十年的人類滅絕。出發無濟於事。

我們作者為您寫的 大衛上訴編輯 薩迪·哈雷並通過事實驗證並考慮 羅伯特·埃根(Robert Egan)– 本文是仔細人類工作的結果。我們依靠像您這樣的讀者來保留獨立的科學新聞。如果此報告對您很重要,請考慮 捐款 (尤其是每月)。你會得到的 沒有廣告 作為感激之情。

更多信息:
西蒙·戈德斯坦(Simon Goldstein),人工智能和人類會發動戰爭嗎? AI和社會 (2025)。 二:10.1007/s00146-025-02460-1

©2025科學X網絡

引用:ai-human不可避免地不可避免嗎? (2025年9月29日)於2025年9月29日從https://techxplore.com/news/2025-09-violent-aman-conflict-nnednednevitable.html收到

該文檔具有版權。除了出於私人研究或研究目的的一些公平交易外,如果沒有書面解決方案,就無法再現。內容僅用於信息目的。



來源連結