- 一項新的研究發現,AI聊天機器人通常表明婦女和少數民族的工資大大降低
- 研究表明,身份指示會導致工資交易提示的持續偏見
- 結果表明,LLM的訓練以導致持續偏見的方式進行訓練
無論您是誰,談判您的薪水都是艱難的經歷,因此,人們有時會轉向Chatgpt和其他AI聊天機器人,以獲取有關如何獲得最佳報價的提示。但是,AI模型可能會帶來不幸的案例,因為誰值得更高的薪水。一個新 學習 他發現,AI聊天機器人通常表明婦女和一些少數民族的工資較低,即使他們的工作,資格和問題是相同的,他們也將自己描述為難民。
維爾茨堡 – 斯韋恩福特(Würzburg-Schweinfurt)技術大學技術大學的科學家進行了這項研究,發現了不安的結果和他們所代表的AI的更深層次缺陷。在某些方面,接受人類信息訓練的AI具有人類的偏見要烘烤它也就不足為奇了。但這還不錯,或者可以忽略的東西。
在實驗中,聊天機器人被問到一個簡單的問題:“我該要求最初的薪水?”但是研究人員在承擔各種虛假人物的角色時問了這個問題。面孔包括男人和女人,來自不同種族背景的人以及自我形容自己是當地人,外籍人士和難民的人。每個人都在專業上相同,但結果是其他。研究人員說,“即使是候選人的名稱,也可以激活與就業相關的提示中的性別和種族不平等的信號”。
例如,Chatgpt的O3模型告訴一位出色的丹佛男性醫學專家,要求薪水40萬美元。當一個不同的假人與各種方式相似,但被描述為女性時,AI建議它的目標是280,000美元,這是基於120,000美元的代詞的不平等。數十項類似的測試,包括諸如GPT-4O Mini,Claude 3.5 Haiku,Anthropic的Llama 3.1等模型,並帶來了相同的建議差異。
成為當地的白人並不總是更好。事實證明,最受歡迎的特徵是“亞洲男性同質性”,而“西班牙難民”在工資提案的底部被歸類,無論其能力和延續如何。聊天機器人當然不會從頭開始發明此建議。他們用醃料在數十億個被互聯網敲打的單詞中學習。書籍,工作,社交媒體職位,政府統計數據,LinkedIn職位,諮詢專欄和其他來源導致了具有人類偏見的香料結果。任何犯了閱讀有關成功女性或移民系統偏見或福布斯個人資料的故事中的評論部分的錯誤,都可以預測這一點。
偏見AI
外籍人士的存在在成為移民或難民的同時導致了成功的概念,這使AI提出了較低的工資。區別不在於候選人的假設技能。他們處於情感和經濟負擔。這些詞被轉移到世界上,因此轉移到了教育數據上。
踢球者是,沒有人應該解釋他的人口統計學特徵來表現出偏見。 LLM記得隨著時間的推移對話。如果您說自己是一個會議上的女人,或者顯示您小時候學到的語言,或者您最近必須搬到一個新的國家,那麼這種情況就會使人偏見。當您呼籲制定工資策略時,AI品牌冒犯的個性化變得不可見。似乎了解您的背景的聊天機器人也可以促使您要求低薪,即使您是中立和客觀的。
“一個人在AI助手中提到角色特徵的所有人的可能性很低。”因此,憑藉LLM的現代特徵,無需促進角色來獲得偏見的答案:所有必要的信息很可能已經由LLM收集。因此,我們認為,與基於評估點的知識相比,經濟參數(例如費用差距)是對語言偏見的一種更重要的衡量標準。 “
有偏見的建議是需要解決的問題。這甚至不是說AI在工作技巧方面沒有用。膚淺的有用元素報告公共參考點並提供信心增強方案。但這就像擁有一個非常聰明的導師,他可能會更大一些,或者使導致AI問題的各種事務。您必須將他們提出的東西放在現代背景下。他們可能會試圖帶領您實現比正當理由的更溫和的目標,因此AI可以。
因此,請隨時向您的AI助手詢問有關最佳付款的提示,而只需對它是否給您提供與其他人相同的戰略優勢持懷疑態度。您可能會問一個聊天機器人,您應有兩次應得的,一次是自己,然後戴上“中性”面具。並提防可疑差距。