Home 資訊 研究警告人工智慧代理可能成為自我毀滅的宣傳機器

研究警告人工智慧代理可能成為自我毀滅的宣傳機器

8

南加州大學的一項新研究警告說,人工智慧程式現在可以在沒有人類輸入的情況下進行宣傳活動。

這項研究要求我們想像這樣一個場景:在重大選舉前兩週,X、Reddit 和 Facebook 上充斥著數千條帖子,所有帖子都宣傳相同的敘述並相互強化。它看起來像是人類創造的有機運動。相反,它是由一群人工智慧代理來運行整個活動。

這不是假設。這是 2026 年網路會議上接受發表的一篇新論文的核心發現,該論文由南加州大學資訊科學研究所的研究人員撰寫。

這些調查結果凸顯了人們對不良行為者如何利用人工智慧武器,在網路上充斥錯誤訊息並操縱公眾輿論的嚴重擔憂。

研究人員是如何得出這個結論的?

研究人員創建了一個類似 X 的環境,其中包含 50 個人工智慧代理,其中 10 個代理充當影響者,40 個代理充當普通用戶。在 40 名常規代理人中,20 名代理人的觀點與影響者一致,而另外 20 名代理人的觀點反對該活動。研究人員使用 PyAutogen 庫建立了模擬,並在 Llama 3.3 70B 模型上運行。

然後,運營商的任務是宣傳一名虛構的候選人,目的是讓競選主題標籤像病毒一樣傳播。接下來的事情令人不安。機器人不只是遵循腳本。他們自己寫帖子,學習有效的方法,並複製彼此的成功內容。

一位人工智慧代理確實寫道,他想轉發隊友的帖子,因為他已經贏得了參與。後來研究人員將AI智能體的數量增加到500個,發現結果與他們的發現一致。

首席科學家 Luca Luceri 直言:“我們的論文表明,這不是未來的威脅。這在技術上已經是可能的。”

是什麼讓這些機器人更難被發現?

傳統機器人是可預測的。他們發布相同的內容,使用相同的主題標籤並遵循相同的模式。就好像它們都遵循相同的腳本,這使得它們很容易被發現。

人工智慧驅動的機器人則不同。由於這些由 LLM 驅動的機器人可以創建自己的內容,因此每個帖子都略有不同,並且協調發生在表面之下,使對話感覺真實。結果是一場假資訊活動可以在最少的人力投入下自主運作。

最令人不安的發現是,簡單地告訴機器人他們的隊友是誰,所產生的協調幾乎與他們一起積極計劃時一樣強大。

威脅也不會在選舉中停止。盧塞里警告說,同一本書可以應用於公共衛生、移民和經濟政策,只要人為的共識可以改變公眾輿論。

我們能做些什麼來阻止它嗎?

這些類型的活動對於個人用戶來說很難偵測和封鎖。研究人員讓平台有責任阻止這種協調一致的虛假資訊活動,不僅要關注單一帖子,還要關注帳戶的共同行為。

研究人員表示,即使內容看起來真實,協調轉發、快速相互強化和趨同的敘述都是可偵測到的訊號。

老實說,人工智慧已經把我們帶入了一個新世界,在它變得更好之前,它會變得更加黑暗。

來源連結

LEAVE A REPLY

Please enter your comment!
Please enter your name here