Home 資訊 這個決定還有可能嗎?計劃自治時代

這個決定還有可能嗎?計劃自治時代

9

眾所周知,人工智慧(AI)的發展速度掩蓋了其監管的脆弱性。這種脫節並不是憑空發生的:它恰逢一個以多重地緣政治衝突、經濟緊張以及戰爭和社會日益數字化為標誌的時期。

正是在這種背景下,缺乏更強有力的、普遍認可的法律框架變得更加令人擔憂,形成了準立法真空,規則尚未明確,但後果卻越來越真實。國家和企業知道合作將是最安全的道路,然而,個人快速進步或獲得技術和/或軍事優勢的動力最終會佔上風。結果是一場沒有人願意落後的競賽,即使每個人都認識到不受控制的系統的危險。

同時,在政治領域,演算法已經成為不透明的實體,在沒有最適控制的情況下塑造行為和決策。這些消費者分析系統可以預測需求並影響選擇,從我們購買什麼到如何思考。訊息的極端個人化,包括人工智慧生成的廣告和內容,提出了一個基本問題:個人自主權在多大程度上不會受到侵蝕。

「我們有選擇」的想法開始接近一個越來越烏托邦的概念。如果我們不了解影響我們的系統,就很難說我們控制了它們,而且透明度越來越不再是技術問題,而是民主問題。

然而,在國防部門,影響變得更加令人擔憂。我們看到越來越多的人工智慧引入軍事系統,這引發了一個關鍵問題:人類會繼續處於決策的中心,還是逐漸被排除在決策過程之外?的可能性“圈外的人這不僅僅是一個理論場景,而且可能是一種新興趨勢。將關鍵的、可能致命的決策外包給自動化系統代表了戰爭性質的深刻變化。

除此之外,衝突日益私有化,因為擁有先進數據分析和人工智慧開發能力的科技公司在國防領域發揮越來越重要的作用,在許多情況下,這不僅是不可避免的,而且是可取的。這些實體匯集了在日益複雜的領域中做出明智決策所需的高度專業化的技術知識。在某些情況下,他們甚至可能會按照民主價值和公共利益行事。

然而,正是在這裡出現了關鍵問題:如何確保這種一致性?什麼樣的監督、透明度和問責機制可以確保私人利益不會凌駕於公共利益之上?隨著國家的一些傳統權力轉移到這些實體,戰爭不再只是一種國家工具,而是在某種程度上成為一種服務,其治理在很大程度上仍然是不確定的。

有鑑於這一切,問題不再是我們是否應該監管人工智慧,而是我們是否能夠及時監管。歷史表明,科技很少等待法律的到來,而缺乏規則往往會加劇不平等、風險和濫用。

在一個演算法互相決定、影響和對抗的世界裡,透明度、問責制和人為控制是不可選擇性的。它們日益成為維護安全以及社會自主和主權的必要條件。



來源連結