• 一項新的研究發現,AI聊天機器人通常表明婦女和少數民族的工資大大降低
  • 研究表明,身份指示會導致工資交易提示的持續偏見
  • 結果表明,LLM的訓練以導致持續偏見的方式進行訓練

無論您是誰,談判您的薪水都是艱難的經歷,因此,人們有時會轉向Chatgpt和其他AI聊天機器人,以獲取有關如何獲得最佳報價的提示。但是,AI模型可能會帶來不幸的案例,因為誰值得更高的薪水。一個新 學習 他發現,AI聊天機器人通常表明婦女和一些少數民族的工資較低,即使他們的工作,資格和問題是相同的,他們也將自己描述為難民。

維爾茨堡 – 斯韋恩福特(Würzburg-Schweinfurt)技術大學技術大學的科學家進行了這項研究,發現了不安的結果和他們所代表的AI的更深層次缺陷。在某些方面,接受人類信息訓練的AI具有人類的偏見要烘烤它也就不足為奇了。但這還不錯,或者可以忽略的東西。

來源連結