Home 娛樂 AI劇如何在真實的醫院裡上演?

AI劇如何在真實的醫院裡上演?

9

在周四的節目中 房子匹茲堡創傷中心長期以來因使用人工智慧而產生的緊張關係進一步惡化。

在這部五次榮獲艾美獎的醫療劇第二季中,新任主治醫生巴蘭·阿爾·哈希米(塞皮德·莫瓦菲飾)決心提高醫院的效率。她告訴懷疑的員工,新的人工智慧系統可以將他們繪製地圖的時間減少 80%,讓他們有更多的時間在床邊和家裡。

但在第六集中,醫生們發現人工智慧工具偽造了有關患者的虛假詳細信息,並將「泌尿科」與「神經科」混淆了。

「人工智慧 2% 的錯誤率仍然比聽寫要好,」Al Hashemi 說,並補充說它需要校對錯誤。但從事內科工作的坎貝爾醫生(莫妮卡·巴特納加爾飾)憤怒地回應道:“我並不關心你是否想在這裡使用機器人。我需要病歷中的準確信息。”

與該劇的許多主題一樣,這個故事反映了全國各地醫院中發生的現實生活中的討論。根據 2025 年美國醫學會的一項調查,三分之二的醫生表示他們在一定程度上使用了人工智慧。有些人發現它在提供護理和減少倦怠方面具有無價的價值。但其他醫護人員表示,方案推出得太快,在如此高風險的領域犯了太多錯誤。

人工智慧充當醫學參謀

房子,人工智慧首先是作為一種圖表工具呈現的:醫生記錄他們與病人接觸的過程。繪製圖表是醫生最大的痛點之一,因為他們經常必須熬夜才能完成。幾年來,醫院已經實施了環境人工智慧系統,該系統可以監聽與患者的對話,然後將其總結為醫生的圖表。

杜克大學醫學院的醫生兼教授穆拉利·多賴斯瓦米 (Murali Doraiswami) 表示,目前的人工智慧抄寫員可以讓醫生在就診期間專注於患者,而不是寫筆記。但他表示,這些工具實際上每次只能節省一兩分鐘,因為醫生必須花時間編輯人工智慧創建的內容(正如 Al-Hashimi 指出的那樣)。 房子)。 「這並不能顯著節省我們所說的睡衣時間,」他說。 “但總的來說,這是一個進步,希望它會變得越來越好。”

一些人工智慧圖表工具甚至更進一步。去年,新墨西哥州的 Presbyterian Healthcare Services 試行了一款名為 GW RhythmX 的人工智慧助手,它可以為醫生提供即將到來的患者的病史摘要,從而可能使醫生不必在預約前整理數月的圖表和實驗室文件。

長老會醫院首席醫療資訊長 Lori Walker 表示,RhythmX 還可以為複雜的病患問題提供解決方案。例如,她說,一名患者最近因傷口感染而住院,但對幾種可能治療細菌的抗生素過敏。此前,醫生會諮詢傳染病專家,此過程可能需要 24 至 48 小時。相反,醫生詢問了聊天機器人並立即收到了有效的處方。

耶魯大學醫學院的二年級住院醫師蘇德沙·佩雷拉 (Sudhesha Perera) 表示,他和同事幾乎每天都使用 OpenEvidence,這是一個經過同行評審的醫學文獻訓練的大型語言模型聊天機器人。 「如果病人感染了,我可能會問他們,『你因為這個原因選擇了這種藥物。還有什麼替代方案?』」佩雷拉說,並指出這比使用谷歌或醫學教科書更快。

佩雷拉正在幫助耶魯大學建立人工智慧課程,為居民提供使用該技術時的最佳實踐建議。在耶魯大學心血管數據科學實驗室,Claude 使用 Code 和 Gemini 幫助他編寫程式碼來分析數據。 「我可以用簡單的文字說:『這就是我的數據,這就是我想要的。』這確實改變了遊戲的完成方式。

錯誤和風險

但許多擔憂和風險迫在眉睫。正如在 房子, 人工智慧工具在真實的醫療環境中犯了很多錯誤。住院護理師、加州護理師協會和國家護理師監管委員會主席 Michelle Gutierrez Fu 表示,三年前,她所在的醫院嘗試實施一種新工具來取代病例經理的決定。但當他們測試該工具時,它對幾個案例處理不當,包括建議一名入院接受一個月化療的癌症患者在兩到三天內出院。

「我們一次又一次地證明,實施或使用人工智慧對他們來說實際上更糟、更昂貴,」她說。 2024 年的調查發現,三分之二的工會註冊員表示人工智慧損害了他們的利益並威脅到病人的安全。

Gutierrez Fu 擔心人工智慧只是被用來削減成本和增加利潤,迫使已經減少的員工更加努力工作。這種擔憂之前就已得到回應 房子主角羅比醫生(諾亞懷爾飾):「這會讓我們更有效率,但醫院會期望我們在不支付加班費的情況下治療更多患者,」他說。

同時,人們對技能損失也存在重大擔憂:即使人工智慧現在對醫生有幫助,也會在最需要的時候損害他們的實質知識和決策能力。這個想法將在本週的節目結束時探討 房子:網路攻擊迫使醫院切換到完全模擬的系統,並完全依賴他們的技能和培訓。

這個場景引起了佩雷拉的共鳴。 「當病人在你眼前崩潰時,你需要先了解這些知識,」佩雷拉說。 “AI工具非常慢。” “確實,最終我們需要在沒有工具的情況下進行練習。”

佩雷拉特別擔心,如果新一代醫生在沒有先學習技能的情況下過度依賴人工智慧工具,整個醫療領域可能會受到嚴重損害。 「從未寫過大學論文而只使用 ChatGPT 的孩子可能會變成一名從未寫過評論和批評計劃而只使用 OpenEvidence 的醫生,」佩雷拉說。 “在適當的培訓時間,教導居民如何成為這些工具的好管家非常重要。”

Doraiswami 希望工具的建構方式能支持醫生的判斷,而不是取代醫生的判斷。 「我們越能讓人工智慧讓醫生提出正確的問題,而不是自動接收答案,就越好,」他說。 “我們想要一些能讓我們思考的東西。”


發布日期: 2026-02-13 03:00:00

來源連結: time.com

LEAVE A REPLY

Please enter your comment!
Please enter your name here