參加在線研究項目的一些人使用AI節省時間

Daniele d’Andretti/Unsplash

在線防空機充滿了AI電勢污染產生的反應,這是科學家的重要數據來源。

平台,例如付費參與者,少量用於回答研究人員提出的問題。它們在科學家中很受歡迎,作為收集參與者進行行為研究的一種簡單方法。

Ann-Marie Nussberger 她的同事來自德國柏林馬克斯·普朗克(Max Planck)的人類發展研究所,決定找出受訪者在自己的作品中示例後使用人工智能的頻率。她說:“我們觀察到的發病率指標確實令人震驚。”

他們發現,有45%的參與者問了一個關於復制和插入盒子的多產內容的公開問題,他們認為人們正在聊天機器人AI中提出問題,以節省時間。

假定答案內容的進一步研究是,關於使用AI的使用,例如“過度語言”或“明顯的不人道”語言,更明顯的談話。她說:“從我們今年年初收集的數據來看,研究的很大一部分受到污染。”

在隨後的研究使用Pellific的研究中,研究人員添加了陷阱,旨在玩那些使用聊天機器人的人。基於旨在將人與機器人區分開的圖紙的兩次recaptcs大型測試,-0.2%的參與者居住。更高級的Recaptcha使用了有關用戶過去活動以及當前行為的信息,切斷了另外2.7%的參與者。文本中的問題是人們看不見的,但請閱讀以讀取“榛子”一詞的請求,又捕獲了1.6%,防止了任何副本和插入,顯示了另外4.7%的人。

努斯伯格說:“我們需要做的不是完全信任在線研究,而是要回答和回應。”根據她的說法,這是研究人員的義務,他們應該非常懷疑與答案有關,並接受對抗,以便在AI支持的情況下停止行為。 “但非常重要的是,我也認為平台上有很大的責任。他們必須非常重視並認真對待這個問題。”

多產沒有回答 新科學家評論請求。

他說:“互聯網行為研究的個性已經受到調查網站參與者的挑戰,扭曲了自己或使用機器人接收資金或vaucers,更不用說遠程答案對自尊心的可靠性,以了解複雜的心理學和人類行為。” 馬特·霍奇金森外國研究道德顧問。 “研究人員或應該集體開發遠程檢查一個人參與或返回舊的個人接觸方法的方法。”

主題:

來源連結