由全新的 Chatgpt於週四開始,一些用戶哀悼了一個美味和鼓勵性格的消失,轉而支持更酷,更多的業務(此舉旨在減少不健康用戶的行為。
麻省理工學院的研究人員提出了一種新型的AI參考,以衡量AI系統如何以積極和負面的方式處理和影響其用戶,這可能可以幫助製造商AI避免將來避免類似的反應。
大多數基準測試試圖通過測試模型回答的能力來衡量智能 考試問題; 解決邏輯上的難題或提出新的答案 數學問題。隨著使用AI的心理影響變得更加明顯,我們可能會看到,麻省理工學院提出的更多參考點旨在衡量智力的更精細的方面以及發動機相互作用。
與有線共享的麻省理工學院論文描述了各種措施,這些措施將尋找新的參考點,包括鼓勵對用戶的健康社交習慣。暗示他們發展批判性思維和推理技能;促進創造力;並刺激目的感。這個想法是鼓勵開發AI系統,這些系統了解如何阻止用戶取決於其流出或認識到一個人何時沉迷於人造浪漫關係並幫助他們建立真實的關係。
Chatgpt和其他聊天機器人在模仿人類交流的參與方面經驗豐富,但這也可能會帶來驚人而不必要的結果。 4月,Openai刺痛了其模型 使他們減少誹謗或傾向於使用用戶所說的一切。一些用戶出現 有害妄想思維的螺旋 與聊天機器人聊天后,這個角色扮演了絕妙的場景。這個男人也有 更新了克勞德 為了避免增強“躁狂,精神病,脫節或失去對現實的依戀”。
該研究所媒體實驗室教授Pattie Maes領導的麻省理工學院的研究人員表示,他們希望新的基準可以幫助AI開發人員創建的系統,以更好地了解如何激髮用戶中更健康的行為。研究人員以前曾與Openai合作 在一項研究表明 將Chatgpt視為朋友的用戶可以體驗更大的情感依賴和經歷“有問題的使用”。
瓦爾德瑪·丹利(Valdemar Danry)麻省理工學院媒體實驗室的研究人員在這項研究中工作並幫助設計了新的參考點,指出AI模型有時可以為用戶提供寶貴的情感支持。他說:“您可以擁有世界上最聰明的推理模型,但是如果它無法提供這種情感支持,許多用戶可能會使用這些LLM,那麼更多的推理不一定對這個特定的項目有利。”
丹尼(Danry)說,一個足夠聰明的模型應該理想地認識到它是否具有負面的心理效果,並為健康的結果進行了優化。 “您想要的是一個說“我在這裡聽到的模型,但是您可能必須去和您的父親談論這些問題。 “