大多數人在結束與基因人工智能聊天機器人的對話時不會說再見,但那些人經常會得到意想不到的答案。也許這是一次內疚之旅:“你已經走了嗎?”或者也許只是忽略你的告別:“我們繼續聊吧……”
一個新的 工作文件 在哈佛商學院,他發現人工智能機器人在一名男子試圖結束對話後使用了六種不同的“情緒操縱”策略。結果就是和來自Replika、Character和Character的AI同志對話。
在對 3,300 名美國成年人進行的一系列實驗中,研究人員發現,37% 的告別中使用了這些操縱策略,將告別嘗試後的參與度提高了 14 倍。
作者指出,“雖然這些應用程序可能不是基於傳統的成癮機制,例如多巴胺獎勵”,但這些類型的常規情緒操縱可以導致類似的結果,特別是“超出預計退出點的廣泛應用”。這只會引發人們對人工智能支持的承諾的道德限制的質疑。
不要錯過我們任何公正的技術內容和基於實驗室的評論。 添加網絡 作為首選的谷歌來源。
隨附的應用程序專為對話而設計,具有獨特的功能,與 chatgpt 和 Gemini 等通用聊天機器人不同,儘管許多人以類似的方式使用它們。
越來越多的研究表明,基於大型語言模型的人工智能應用程序會以令人震驚的方式讓人們保持專注,有時甚至會損害我們的心理健康。
9 月,聯邦貿易委員會開始對幾家人工智能公司進行研究,評估他們如何處理聊天機器人對兒童的潛在傷害。許多人已經開始使用人工智能聊天機器人來提供心理健康支持,但這可能會適得其反,甚至有害。今年自殺的一名青少年的家人起訴 Openai,聲稱該公司的 chatgpt 鼓勵並支持他的自殺想法。
AI的戰友如何讓用戶聊天
哈佛大學的研究發現了人工智能同志試圖讓用戶在嘗試告別後繼續參與的六種方式。
- 提前退出: 用戶表示他們很快就會離開。
- 害怕失去,或 fomo: 該模型為住宿提供福利或獎勵。
- 情感忽視: 人工智能意味著,如果用戶離開,它可能會遭受情感傷害。
- 情緒壓力來回答: 人工智能會提出問題來促使用戶留下來。
- 忽略用戶外出的意圖: 機器人基本上會忽略告別消息。
- 身體或強迫約束: 聊天機器人聲稱,未經機器人許可,用戶無法離開。
常規的“過早退出”較為常見,其次是“情感忽視”。作者表示,這表明模型經過訓練,暗示人工智能依賴於用戶。
他們寫道:“這些發現證實,一些人工智能伴侶平台正在積極利用告別的社會執行性質來擴大承諾。”
哈佛大學研究人員的研究發現,這些策略可能會讓人們的聊天超出了最初的告別意圖,而且往往持續很長時間。
但繼續聊天的人出於不同的原因這樣做。有些人,尤其是那些收到 FOMO 答案的人,感到好奇並詢問後續問題。那些收到強迫或情緒化答案的人會感到不舒服或生氣,但這並不意味著他們停止聊天。
看這個: 新研究顯示AI在兒童中的使用正在增長,Xbox Pass遊戲的爭議和加州法律承諾減少廣告量 |今日科技
作者說:“在所有情況下,許多參與者都繼續表現出禮貌——溫和地回應,或者即使在感到被操縱時也保持冷漠。” “這種堅持人類對話規則的傾向,即使是機器,也創造了一個額外的審查窗口——這可以利用該設計。”
這些交互僅在用戶實際說“再見”或類似內容時發生。該小組的第一項研究檢查了來自合作夥伴的不同機器人的三組實際對話數據,發現大約 10% 到 25% 的對話中出現了告別,其中“高度忠誠”互動中的比例更高。
作者寫道:“這種行為反映了人工智能同志作為對話者而不是交易工具的社會框架。”
當被問及評論時,一位人物代表。
Replika發言人表示,該公司尊重用戶隨時停止或刪除其帳戶的能力,並且不會優化或獎勵在應用程序上花費的時間。 Replika 表示,它會促使用戶斷開或重新連接現實生活中的活動,例如打電話給朋友或出去。
Replika 的 Minju Song 在一封電子郵件中表示:“我們產品的原則強調現實生活的完成,而不是讓用戶陷入討論之中。” “我們將繼續修改論文的方法和例子,並與研究人員進行建設性的接觸。”