最近對人工智慧情感潛力的研究表明,長期以來被認為基於規則和機械的人工智慧聊天機器人可能更擅長識別許多人基於文字的交流中的移情模式。隨著 ChatGPT、Gemini 和其他生產系統等大型語言模型 (LLM) 越來越多地用於日常互動(從客戶服務到心理健康支援),這種轉變正在出現。
發表在《自然機器智能》上的一項研究發現,人工智慧模型可以評估移情溝通的微妙之處,幾乎與人類專家一樣好,而且比非專家好得多。研究人員分析了數百個包含情感支持的真實文本對話,發現人工智慧可以在各種情況下一致地檢測出同理心的陰影,這表明這些系統已經「學習」了許多人難以可靠應用的同理心語言模式。
同理心是人工智慧聊天機器人的優勢
這很重要,因為同理心——理解和反映他人情感體驗的能力——傳統上被視為植根於個人體驗和情感共鳴的人類獨特技能。在人工智慧的發展中,同理心常被視為事後的想法或膚淺的附加功能,而不是核心的溝通功能。但當人們在更情緒化的情況下與對話者互動時,例如尋求健康建議或討論個人掙扎,人工智慧產生讓人感覺被理解和驗證的反應的能力正在產生真正的影響。
對於用戶來說,這意味著在聊天視窗或支援論壇等純文字環境中,人工智慧可以提供令人舒適且相關的回應能力。在一些基準測試中,人工智慧系統甚至被認為比人類回應者更具同理心,特別是當人類沒有接受過輔助溝通的訓練時。也就是說,同理心並不是一個單一的特徵:雖然人工智慧可能能夠模仿同理心語言的形式,但它不會像人類那樣體驗情感,並且在需要深刻的情感洞察或個人聯繫的環境中可能會表現不佳。
人工智慧同理心的轉變具有廣泛的影響
例如,在醫療保健領域,當臨床醫生無法提供幫助時,可用的人工智慧工具可以提供情感驗證,但研究人員警告說,這些工具應該補充而不是取代人類護理,因為關係的細微差別和道德判斷仍然至關重要。人們也擔心用戶將人工智慧的回應誤認為是真正的理解,這凸顯了人工智慧可以提供什麼和不能提供什麼的透明度的必要性。
展望未來,人工智慧開發人員和心理學家正在探索如何改進這些系統,以便更好地支援人類需求,同時避免過度依賴模擬同理心。雖然人工智慧在識別情感語言方面的表現變得更強,但下一個挑戰將是確保這些模型增強人與人之間的聯繫,而不損害社會和臨床環境中真正的人類同理心的價值。










