圖片來源:Pixabay/CC0 公共領域
每天,數百萬人與 ChatGPT、Replika 和 Gemini 等聊天機器人和人工智能助手互動,但我們實際上與他們形成了什麼樣的“關係”?
在該雜誌的特刊中 新媒體與社會Iliana Depunti 博士(拉夫堡大學)和 Simona Natale 副教授(都靈大學)探討了“人工社交”的出現,即模擬社交行為和情感聯繫而不實際擁有它們的技術。
他們的文章 “解碼人工社交:技術、動力、後果。” 揭示了與大型語言模型(LLM)和人工智能聊天機器人的出現相關的許多問題。
它認為,人工智能創造的友誼或融洽的幻覺是科技公司故意培養的,以提高用戶參與度,例如 Spotify 的“AI DJ”具有友好的人聲和 Replika 的“虛擬伴侶”聊天機器人。
Depunti 博士說:“Replika 或 Feature AI 等人工智能生成伴侶機器人是人工社交技術的例子。
“它們旨在刺激情感投射,通過化身、角色扮演、定制和遊戲化等功能為用戶提供親密感和聯繫——所有這些都為開發它們的公司帶來了金錢利益。
“ChatGPT 還使用人工社交技術,從給自己貼上“我”的標籤到採用權威、同理心或專業知識的語氣。
“雖然這些系統模擬而不是重新創造社交性,但它們的力量就在於這種模擬——它們能夠吸引、說服並在情感上感動世界各地數百萬用戶,從而引發深刻的道德問題。”
該研究展示瞭如何將社交線索融入產品中,以保持人們的互動時間更長。
其他問題包括:
- 機器只模仿社會行為但用戶仍然向他們投射感情、信任和同理心。
- 用戶數據和情感勞動 被用來訓練和“個性化”人工智能係統,引發了人們對數據中心隱藏的人類工作和大量能源使用的道德和環境擔憂。
- 偏見和刻板印象 人工智能係統反映了社會不平等,這些不平等塑造了數字對話中性別、階級和種族的表現方式。
- 用戶適應AI“伴侶” 通過研究人員所說的“重新馴化”——每當聊天機器人的性格或行為發生變化時,就重新定義關係。
- 真實與欺騙之間的界限 隨著人工智能人物被定位為“朋友”、“同事”,甚至“影響者”,人工智能的角色變得模糊。
納塔萊博士說:“當我們與生成人工智能技術互動時,人工社交是人機交流的下一個前沿。
“這些系統沒有感覺,但它們的設計目的是讓我們有感覺,這種情感投射具有深遠的社會、經濟和道德後果。人工社交技術鼓勵並獎勵這些投射。”
研究人員警告說,這種看似簡單的談話背後隱藏著巨大的人力和環境成本。
人工智能模型依賴於從人們的在線交互以及通常從他們與機器本身的對話中提取的巨大數據集。
然後,這些數據被用來“訓練”聊天機器人,使其聽起來更人性化——有時用戶會在不知不覺中進行無償的情感或語言勞動。
與此同時,為生成人工智能提供動力的服務器消耗大量的電力和水。
作者強調了大型科技公司投資 5000 億美元建設新數據中心以滿足人工智能需求,並將其描述為將人類互動轉化為公司資產的“挖礦”系統的一部分。
附加信息:
伊利亞娜·德蓬蒂等人。 “解碼人工社會性:技術、動力、後果”, 新媒體與社會 (2025)。 數字號碼:10.1177/14614448251359217
引文:你的聊天機器人不愛你:社交 AI 的“幻象”(2025 年 11 月 12 日),2025 年 11 月 12 日檢索自 https://techxplore.com/news/2025-11-chatbot-doesnt-illusion-social-ai.html。
本文檔受版權保護。除善意用於私人學習或研究目的外,未經書面許可不得複制任何部分。所提供的內容僅供參考。










