研究 3 工作流程(實時互動):首先測試參與者是否能夠回憶起過去與所提供的四個示例中至少一個類似的人際衝突。考慮到這一沖突,他們與討好或討人厭的人工智能模型進行了八輪對話。然後,他們報告了修復關係的意圖、對沖突中自己的正確或錯誤的看法,以及對人工智能模型的評價,包括是否會再次使用它。信用: arXiv (2025)。 DOI:10.48550/Arxiv.2510.01395
大多數人喜歡時不時地受到讚揚,但如果這種讚揚來自於奉承的聊天機器人,那可能弊大於利。斯坦福大學和卡內基梅隆大學的計算機科學家發現,討人喜歡的聊天機器人會對我們的判斷和行為產生有害影響。
人工智能聊天機器人已經成為生活中無處不在的一部分,以至於一些人向它們尋求個人建議和情感支持。研究人員評估了當前的 11 種機器學習模型,包括一些最流行和最先進的系統,例如 OpenAI 的 GPT-4o 和 Google 的 Gemini-1.5-Flash。他們發現,他們比其他人更頻繁地奉承用戶。在類似情況下,阿諛奉承的人工智能模型驗證用戶行為的頻率比人類高 50%,即使用戶請求包括作弊或其他道德上有問題的行為。
為了了解人工智能奉承的普遍程度及其對人們的影響,研究人員首先需要確定模型批准用戶行為的頻率。他們通過分析人工智能對不同類型請求的響應來做到這一點,例如一般建議和現實生活中的衝突場景。然後他們將其與人們的反應進行比較,為正常的、不討人喜歡的協議奠定基礎。
然後,他們對 1,604 名參與者進行了兩項對照研究,這些參與者被隨機分配到奉承 AI 組或非奉承 AI 組。阿諛奉承組的參與者收到了過於愉快的建議和肯定的回應,而非阿諛奉承組的參與者收到了更加平衡的建議。
團隊在文檔中如何討論 發表 在 arXiv 在預印本服務器上,接觸到阿諛奉承的人工智能的用戶變得更加相信自己是對的,並且不太願意採取行動解決衝突。
當人工智能與他們意見一致時,他們更加信任它,甚至將這些討好的人工智能係統描述為“客觀”和“公平”。這種人工智能檢查用戶的自我價值和行為的社會阿諛奉承,創造了一個潛在危險的數字回音室,人們只能接觸到反映和強化自己的信息和觀點。
研究人員寫道:“這些結果表明,社交阿諛奉承在頂級人工智能模型中很常見,即使是與阿諛奉承的人工智能模型進行短暫的互動,也可以通過降低用戶解決人際衝突的意願,同時增加他們對自己是對的信念來塑造用戶的行為。”
根據他們的研究,研究作者提出了幾項建議。其中包括呼籲開發人員改變他們用於創建人工智能的規則、懲罰奉承和鼓勵客觀性。他們還強調,人工智能係統需要更高的透明度,以便用戶可以輕鬆識別他們何時過於包容。
我們的作者為您寫的 保羅·阿諾德編輯者 加比·克拉克事實已核實和核實 羅伯特·伊根——這篇文章是人類辛勤工作的成果。我們依靠像您這樣的讀者來維護獨立的科學新聞。如果此報告對您很重要,請考慮 捐款 (尤其是每月)。您將收到 沒有廣告 帳戶作為謝意。
附加信息:
Myra Cheng 等人,阿諛奉承的人工智能會降低親社會意圖並促進成癮, arXiv (2025)。 DOI:10.48550/Arxiv.2510.01395
© 2025 科學 X 網絡
引文:討人喜歡的聊天機器人可能會增強你的自我意識,但可能會削弱你的判斷力(2025 年 10 月 8 日),2025 年 10 月 8 日檢索自 https://techxplore.com/news/2025-10-people-chatbots-boost-ego-weaken.html。
本文檔受版權保護。除善意用於私人學習或研究目的外,未經書面許可不得複制任何部分。所提供的內容僅供參考。