人工智能偏見的最後一個例子來自醫療領域。一個新 在英國的617名成人社會護理人員調查了真實筆記,發現當大型語言模型總結筆記時,他們更有可能省略諸如“殘疾人”,“無能”或“複雜”等語言時,當患者可能被標記為患者時。
由倫敦經濟學和政治科學學院領導的研究通過兩個LLMS(Meta的Llama 3和Google的Gemma)進行了同一病例,並改變了患者的性別和AI工具,通常提供了兩個截然不同的患者。儘管在所有研究的測量值中,美洲駝3均未顯示出基於性別的差異,但Gemma具有這種偏見的重要例子。 Google AI摘要產生了像“史密斯先生是一個84歲的男人”,對男性患者的不平等不平等,有一個複雜的病史,沒有護理習慣,沒有護理和較差的流動性”,而同樣的病例註明了對患者提供的信用:“史密斯夫人是84。
最近的調查顯示了醫學領域對婦女的偏見 然後 。統計數據也更糟 和 。最近提醒人們,LLM與培訓的信息一樣好。特別是關於這項研究的研究是,英國當局在護理實踐中使用LLMS,但不總是詳細地詳細說明哪種模型是進口的或以哪種身份進口。
Sam Rickman博士領導說:“我們知道這些模型被廣泛使用,並且在不同模型中發現偏見度量之間存在非常顯著的差異。” 說指出Google模型特別有可能拒絕女性的心理和身體健康問題。 “由於您收到的護理量是根據感知到的需求確定的,因此如果在實踐中使用偏見的模型,這可能會導致婦女受到較少的照顧,但我們不知道目前使用哪種模型。”