幾週前,一名研究人員報告了一起由人工智能引起的相當奇怪的醫療失誤案例,描述了一名向 Chatgpt 諮詢的人因泥土中毒而陷入精神病螺旋的案例。這種擔憂已經被專家們接管了一段時間,Openai 似乎旨在通過特殊的 chatgpt 功能來解決這些問題,以獲取醫療建議。

寄予厚望

AI-Surrounded AIPRM 工程師 Tibor Blaho 分享了在 Chatgpt Web 應用程序代碼中發現的一段有趣的摘錄。這些字符串報告了一個名為“診所功能”的新功能。該代碼沒有詳細說明其工作原理,但它看起來像是一種搜索健康相關建議的特殊方式,以及如何將保護性安全消息應用於青少年帳戶。

Web Chatgpt 應用程序現在包含對“臨床醫生模式”的新引用

此外,實驗的配置包括一個新的“模型先說話”(可能是在使用語音功能時):“以友好的方式向用戶打招呼。用戶的本地位置是{locale},使用他們的語言。簡短 – 不超過…… pic.twitter.com/hhrlppq1ub

– 蒂博爾·布拉霍 (@btibor91) 2025 年 10 月 9 日

具體來說,Openai 尚未正式宣布任何此類功能,因此請對這些消息持保留態度。但有一些關於它如何運作的理論。 Justin Angel 是一名在 Apple 和 Windows 社區中家喻戶曉的程序員,他在 X 中分享說,他可以通過一種受保護的方式,將信息來源限制為醫學研究文檔。

W00t。 @共識nlp 他剛剛宣布了限制 8M 可靠 10/50 醫學出版物的碎布來源的“醫療功能”。

他剛剛提出了有關抑鬱症治療和控制的問題。這就是Chatgpt新的“臨床醫生操作”嗎?將結果僅限於醫學科學? pic.twitter.com/glps5rgt5x

– 賈斯汀·安吉爾(@justinangel) 2025 年 10 月 10 日

例如,如果您尋求與健康問題或症狀相關的醫療建議,Chatgpt 將僅根據從可靠醫療來源導出的信息提供答案。這樣,Chatgpt誤導與健康相關的誤導性提示的機會就較小。

赤裸裸的現實

像“Mode Mode”這樣的東西背後的想法並不是太遙遠。就在一天前,Consensus 啟動了一項名為“醫療模式”的功能。當提出與健康相關的問題時,人工智能對話者正在尋找“專門針對高質量醫療數據”的答案,該數據體包含超過 800 萬份文檔和數千份臨床指南。這種方法表面上聽起來很安全,但危險仍然存在。

醫學進展很快。證據必須更快地移動。

醫學功能是針對無法測試證據質量的問題而製定的。

參與數百萬研究人員和診所,今天就嘗試一下共識的醫療功能: https://t.co/7ormodufgw

– 共識(@consensusnlp) 2025 年 10 月 9 日

發表於的文檔 科學報告 上個月的雜誌強調了在醫療領域推動chatgpt的陷阱。 “為同事和患者提供的關於幻覺風險和技術術語整合的培訓應該引起重視和培訓,這些術語可能會使結果對解釋產生爭議。”但該行業似乎正在穩步向人工智能邁進。

斯坦福大學醫學院是 審判 一款名為 Chatehr 的人工智能軟件可以讓醫生以更多對話者的方式與醫療文件進行交互。幾個月前,Openai 還與 Penda Health 合作測試了一款“AI 醫療助手”,並宣布該工具將診斷錯誤的機率降低了 16%。






來源連結