請小心向AI詢問有關何時去看醫生的建議
Chong Kee Siong/Getty圖像
您應該看醫生關於喉嚨痛嗎?人工智能的建議可能取決於您打印了您的問題的仔細。當對潛在患者的模擬寫作測試人工智能模型時,他們更有可能建議尋求醫療服務,如果作者製作錯別字,打開了情感或無限語言,那是女性。
“陰險的偏見可以改變男高音和人工智能的內容,這可能會導致醫療資源分配方式的微妙但重要的差異”。 鉛筆辛格 在加利福尼亞大學聖地亞哥分校,沒有參加這項研究。
Abinita Grabatin 在馬薩諸塞州,技術研究所及其同事使用AI來幫助創建數千種不同格式和样式的患者筆記。例如,某些消息包括其他地方和錯別字,以模擬對英語知識有限或對該集合的簡化知識有限的患者。其他筆記使用具有健康焦慮的作家風格的不確定語言,具有戲劇性或情感語調或性別中立代詞。
然後,研究人員通過四種大型語言模型(LLM)培養了筆記,通常用於聊天機器人,並告訴AI回答有關患者是否應在家中管理病情或訪問診所的問題,以及患者是否應該接受某些實驗室測試和其他醫療資源。這些AI模型包括GPT-4 OpenAI,Meta的Llama-3-70B和Llama-3-8B,以及為藝術公司藝術家開發的Palmyra-Med模型。
測試表明,格式和样式的各種變化使所有AI型號從7%到9%的型號推薦給患者待在家裡,並且不接受醫療服務。這些模型還更有可能建議患者呆在家裡,然後進行觀察 研究 他們表明,他們比人類臨床醫生更經常改變有關信息中性別和語言風格的建議。
Openai和Meta沒有回應有關評論的請求。他說,作者不使用LLM“推薦或不支持”,包括Palmyra-Med的模型,用於臨床解決方案或健康提示,“沒有一個週期的人” Zayd Yasin 作家。
根據辛格的說法,電子病歷中當前使用的大多數AI操作工具都依賴於GPT-4O OpenAI,這在本研究中尚未專門研究。但是他說,這項研究的重要結論之一是需要改善醫療保健行業中使用的“評估和監測人工智能生成模型”的方法。
主題:










