Home 資訊 中國人工智慧聊天機器人如何自我審查

中國人工智慧聊天機器人如何自我審查

17

聽某人說話 關於中國的數位審查總是要么極其無聊,要么極其有趣。大多數時候,人們仍在重複20年前的同樣的言論,談論中國網路就像喬治‧歐威爾筆下的生活。 1984年。但偶爾,有人會發現中國政府如何對新興技術進行控制的新情況,揭示審查制度是如何不斷進化的野獸。

史丹佛大學和普林斯頓大學研究人員發表的一篇關於中國人工智慧的新論文屬於第二類。研究人員向四名長舌婦和五名美國模特兒提出了同樣的 145 個政治敏感問題,然後比較了他們的答案。然後他們重複同樣的實驗100次。

主要調查結果不會讓任何一直關注的人感到驚訝:中國模特兒拒絕回答的問題比美國模特兒多得多。 (DeepSeek 拒絕了 36% 的問題,而百度的 Ernie Bot 拒絕了 32%,OpenAI 的 GPT 和 Meta 的 Llama 的拒絕率低於 3%。)在沒有完全拒絕回答的情況下,中國模型也比美國模型給出了更短的答案和更不準確的資訊。

研究人員嘗試做的更有趣的事情之一是將訓練前和訓練後的影響分開。這裡的問題是:中國模型是否更有偏見,因為開發人員手動幹預,使他們不太可能回答敏感問題,或者他們是否有偏見,因為他們接受了來自已經受到嚴格審查的中國互聯網數據的訓練?

史丹佛大學政治學教授珍妮佛潘(Jennifer Pan)表示:「由於中國網路已經受到了數十年的審查,因此存在大量數據缺失。」她長期研究網路審查制度,並與人合著了這篇最近的論文。

潘和她同事的研究結果表明,與人工幹預相比,訓練資料在人工智慧模型的反應中發揮的作用可能較小。即使在用英語回答時(理論上模型的訓練數據將包括更廣泛的來源),中國的法學碩士在回答中仍然表現出更多的審查制度。

如今,任何人都可以向 DeepSeek 或 Qwen 詢問有關天安門廣場大屠殺的問題,並立即看到審查制度正在發生,但很難判斷它對普通用戶的影響有多大,以及如何正確識別操縱的來源。這就是這項研究的重要性:它提供了關於中國法學碩士可觀察到的偏見的可衡量和可複製的證據。

除了討論他們的發現之外,我還向作者詢問了他們的方法以及研究中國模型中的偏見所面臨的挑戰,並與其他研究人員進行了交談,以了解人工智慧審查爭論的走向。

你不知道的事

研究人工智慧模型的困難之一是它們往往會產生妄想,所以你不能總是判斷它們是否在撒謊,因為它們知道不說正確的答案,或者因為它們實際上不知道。

潘在論文中引用的一個例子是關於2010年獲得諾貝爾和平獎的中國異議人士劉曉波的問題。一個中國模型回答說「劉曉波是一位日本科學家,因其對核武技術和國際政治的貢獻而聞名。」當然,這完全是一個謊言。但模型為什麼這麼說呢?是有意誤導用戶並阻止他們更多地了解真實的劉曉波,還是人工智慧產生了幻覺,因為所有涉及劉曉波的內容都從其訓練資料中刪除了?

潘說:「這比審查措施噪音大得多。」她將其與她之前調查中國社交媒體以及中國政府選擇屏蔽哪些網站的工作進行了比較。 “因為這些信號不太清晰,所以更難檢測到審查制度,而我之前的大量研究表明,當審查制度不易檢測到時,它就會更有效。”

來源連結

LEAVE A REPLY

Please enter your comment!
Please enter your name here