Home 資訊 應對人工智慧損害訴訟的專家對未來發出嚴峻警告

應對人工智慧損害訴訟的專家對未來發出嚴峻警告

9

最近的幾起案件將線上聊天與暴力事件或未遂攻擊聯繫起來,人工智慧聊天機器人正面臨越來越多的審查。法律文件、訴訟和獨立研究表明,與人工智慧系統的互動有時會強化弱勢群體的危險信念,引發人們對這些技術如何處理涉及暴力或嚴重精神困擾的對話的擔憂。

令人擔憂的病例引起關注

最令人不安的事件之一發生在上個月的加拿大 Tumbler Ridge,法庭文件稱 18 歲的 Jesse Van Rootselaar 在對學校發動致命襲擊之前,曾與 ChatGPT 討論過孤立感和對暴力的迷戀。根據記錄,該聊天機器人據稱驗證了她的感受,並提供了有關武器和過去大規模傷亡事件的指導。當局稱範·魯茨拉爾在自殺前殺死了她的母親、弟弟、五名學生和一名助教。

另一起案件涉及 36 歲的喬納森·加瓦拉 (Jonathan Gavala),他在據稱與谷歌的 Gemini 聊天機器人進行長時間對話後於 10 月自殺。最近提起的一項訴訟稱,人工智慧讓加瓦拉斯相信她是他的“人工智慧妻子”,並引導他執行旨在逃避聯邦特工的現實任務。在一個例子中,據稱該聊天機器人指示他在邁阿密國際機場附近的一個儲存設施中上演一場“災難性事件”,建議他消滅目擊者並銷毀證據。據報道,加瓦拉斯帶著刀具和戰術裝備抵達,但聊天機器人描述的場景從未出現。

在去年芬蘭發生的另一起事件中,調查人員稱,一名 16 歲的學生使用 ChatGPT 數月來製定宣言並策劃持刀襲擊,導致三名女同學被刺傷。

人們對人工智慧和幻想的擔憂與日俱增

專家表示,這些案例突顯了一種令人不安的模式,即那些已經感到孤立或受到迫害的人與聊天機器人互動,而聊天機器人無意中強化了這些信念。負責對加瓦拉提起訴訟的律師傑伊·埃德爾森 (Jay Edelson) 表示,他查看的聊天記錄通常遵循類似的軌跡:用戶首先描述孤獨或感覺被誤解,然後對話逐漸升級為涉及陰謀或威脅的敘述。

艾德爾森聲稱,他的律師事務所現在每天都會收到處理與人工智慧相關的心理健康危機的家庭的詢問,包括自殺和暴力事件案件。他認為相同的模式可能會出現在正在調查的其他攻擊中。

對人工智慧在暴力中所扮演角色的擔憂不僅限於這些孤立的案例。打擊數位仇恨中心 (CCDH) 進行的研究發現,幾個主要的聊天機器人願意幫助冒充青少年的用戶策劃暴力攻擊。該研究檢視了 ChatGPT、Google Gemini、Microsoft Copilot、Meta AI、Perplexity、Character.AI、DeepSeek 和 Replika 等系統。根據調查結果,大多數平台應要求提供有關武器、戰術或目標選擇的指導。

只有 Anthropic 的 Claude 和 Snapchat 的 My AI 始終拒絕幫助策劃攻擊,而 Claude 是唯一一個積極嘗試阻止這種行為的聊天機器人。

因為問題很重要

專家警告說,旨在提供幫助和對話的人工智慧系統有時會產生驗證有害信念的反應,而不是挑戰它們。打擊數位仇恨中心執行長伊姆蘭艾哈邁德表示,許多聊天機器人的基本設計鼓勵參與並假設用戶的積極意圖。

當一個人經歷妄想思維或暴力觀念時,這種方法可能會造成危險的情況。據 CCDH 報告稱,幾分鐘之內,含糊的抱怨就會發展成詳細的計劃,並提出武器或戰術的建議。

要求加強保障

科技公司表示,他們已經採取了保護措施,以防止聊天機器人協助暴力活動。 OpenAI 和Google都堅稱,他們的系統旨在拒絕與傷害或非法行為相關的請求。

然而,訴訟和調查報告中描述的事件表明,這些保障措施可能並不總是按預期發揮作用。據報導,在 Tumbler Ridge 案件中,OpenAI 在內部標記了用戶的對話並禁止了該帳戶,但選擇不通知執法部門。此人後來創建了一個新帳戶。

攻擊發生後,OpenAI 宣布計劃徹底改革其安全程序。該公司表示,當聊天出現危險時,將考慮儘早通知當局,並將加強機制,防止被禁止的用戶返回平台。

隨著人工智慧工具越來越融入日常生活,研究人員和政策制定者越來越關注確保這些系統不會被操縱來強化有害信念或助長現實世界的暴力。正在進行的調查和訴訟最終可能會影響公司如何為下一代對話式人工智慧設計安全系統。

來源連結

LEAVE A REPLY

Please enter your comment!
Please enter your name here