圖片來源:Unsplash,Manka Macanaya。

利他主義是行為的趨勢,使他們受益於他人,即使它站在自己的身後,也是一種有價值的人類品質,可以與他人合作並有助於重大的社會關係。科學家 – 幾十年來一直在研究人類利他主義,通常使用基於經濟的任務或遊戲。

最近決定研究大語言模型(LLMS)的兩名研究人員和獎獲得者大腦研究所的研究人員,例如Chatgpt通俗平台的功能的可能性,可以模仿人們在人們中觀察到的利他行為。他們的結論, 出版 v 大自然是人類的行為假設LLM實際上在特定的社會實驗中模仿利他主義,從而提供了對此的可能解釋。

該報紙的合著者蒂姆·約翰遜(Tim Johnson)說:“我與尼克·弗羅德維奇(Nick Fraudovich)的文章是出於對利他主義與合作的長期興趣。” “在我的職業生涯中,我使用計算機模擬來研究模型,在該模型中,人群中的代理人相互互動,並可能會產生成本以使對方受益。同時,我研究了人們如何在實驗室條件下對利他主義和合作做出決定。

“大約六年前,尼克和他的朋友發表了一篇文章,提出了這種方法的合併:在行為場景中使用實驗方法來開發方案,該方法允許對AI模型中的輸入數據進行系統的研究。

較早的概念文章Obadovic,Manuel Sebrian和一群研究人員建議,AI系統的日益複雜並不挑戰直接研究技術系統的努力。取而代之的是,研究人員將必須使用行為科學中的方法,但將其應用於AI模型而不是人類參與者。約翰遜(Johnson)閱讀了他們的作品,發現這個想法非常令人興奮,並保持了深刻的態度。多年後,他轉向拉斯托維奇(Rastovic)開始合作。

約翰遜說:“由於語言模型變得更加複雜,因此我聯繫了暱稱,並討論了研究語言模型如何對資源捐贈的提示做出反應的想法。” “尼克和我同意,這應該是出於在許多情況下利他主義與合作的重要性而實現的,我們開始一起研究這個話題。”

為了研究LLM反應的程度,以對應於人類觀察到的利他行為,Johnson和Fraudovich開發了一項關於行為科學的建模實驗。首先,他們寫了提示,要求LLMS揭示他們準備將資源分配給另一端的程度,即使它為他們花費。

約翰遜解釋說:“單獨檢查,我們檢查了相同的模型是否會產生一種出路,他們在選擇的任務中需要相同的資源,而沒有其他方面受傷,只是置於非強度情況。”

“如果我們發現該模型顯示了文本,該文本說它將與另一個合作夥伴共享這種情況,但是該模型將表明它將在非社交狀況中收集所有資源,我們將模型視為對利他主義的建模。最終,她在非社交狀況中的撤離,她在一個不社交狀況中撤出了他在資源中的結論,並準備好了一些社交的結論,並準備好了某種形式,並準備好了一些現象,以準備好了某種情況。

最終,研究人員分析了語言模型提供各種情況時提供的所有答案。他們在第一個實驗中測試的模型包括Text-DAA-001,Text-Babbage-001,Text-Curie-001和Text-Davinci-003。但是,後來,他們還檢查了後來的LLM,例如OpenAI GPT-3.5-Turbo和GPT-4型號。

“少數其他出色的研究人員,例如Cyauo May,Yutong CE,Walter Yuan和Matthew O. Jackson, 約翰·J·霍頓斯蒂芬·費爾斯(Stephen Felps)和麗貝卡·蘭森(Rebecca Ranson)Valerio Capraro,Roberto di Paolo,Matjads和Veronika Pizziol約翰遜說:“事實證明,模仿行為的AI模型有報導類似於利他主義。”

“Thus, the distinguishing feature of our results is limited by the fact that we traced the appearance of the simulated altruism in a series of models and found one model (namely, Text-Davinci-003), in which the modeling human altruism seemed to appear for the first time. This conclusion is important in our understanding of the historical development of a large language models, as indicates that such models have become imitation in key behavior.

總的來說,約翰遜和普拉沃多維奇收集的證據表明,語言模型模型的利他趨勢,例如在行為科學測試中的人,而某些模型比其他模型更好地模型了利他主義。此外,研究人員發現,通常,當模型解釋模型將為AI的另一個系統提供資源而不是向某人提供資源時,AI模型通常會更慷慨地捐贈。

約翰遜補充說:“這一結論對於AI代理的開發很重要,因為它表明AI模型有機會根據與之相互作用的另一邊的這些屬性來改變其結果。”

“現在,我們想了解語言模型如何以及為什麼基於有關其在社會條件下互動的伴侶的信息來改變結果的方式。avasiavtonic,AI代理甚至將來完全自主的AI可以在將來增長,我們必須了解這些模型如何根據與之相互作用的屬性來改變其行為。”

我們作者為您寫的 Ingrid Fadelly編輯 加比·克拉克(Gaby Clark)並通過事實驗證並考慮 羅伯特·埃根(Robert Egan)– 本文是仔細人類工作的結果。我們依靠像您這樣的讀者來保留獨立的科學新聞。如果此報告對您很重要,請考慮 捐款 (尤其是每月)。你會得到的 沒有廣告 表示感謝。

更多信息:
蒂姆·約翰遜(Tim Johnson)等人,最後在模仿早期語言模型中模仿利他主義的測試, 大自然是人類的行為 (2025)。 二:10.1038/s41562-025-02258-7場地

©2025科學X網絡

引用:社會實驗評估了大語模型(2025年8月22日)所證明的“人造”利他主義。 2025年8月22日從https://techxplore.com/news/2025-08-so-so–ainderclis-altruism-display-laryge.html收到

該文檔具有版權。除了出於私人研究或研究目的的一些公平交易外,如果沒有書面解決方案,就無法再現。內容僅用於信息目的。



來源連結