使用人工智能建立個性化飲食是一種簡單的做法。然而, 使用 Chat GPT 作為營養師和醫生可能會產生危險的後果 為了人們的健康。

在他的辦公室裡, 何塞·卡斯塔涅達 (José Castañeda),著名減肥外科醫生, 注意到一個令人震驚的趨勢: 病人遲到。在尋求專業幫助之前, 許多人已經冒著健康風險去諮詢一位看不見的危險“醫生” 無人監督的飲食

“十分之六的人盲目相信人工智能提供的信息,”卡斯塔內達說。

醫生在接受Excelsior採訪時警告說,這種現像不僅影響人們的飲食,還會影響健康。 延誤及時診斷 並在不治療的情況下使嚴重疾病長期存在。

僅通過人工智能建議來管理飲食有哪些風險?

卡斯塔尼達在解釋風險時語氣有力:“節食 需要進行醫學評估、觸摸、觸診和實驗室測試沒有它,數字推薦就像用你的健康玩俄羅斯輪盤賭。

專家們最擔心的例子是無症狀的腎衰竭。如果一個人在沒有專家事先建議或評估的情況下採取飲食,這種情況可能會加劇。

“想像一下 GPT Chat 為一位不知道自己已經患有腎臟損傷的糖尿病患者制定高蛋白飲食。”

專家指出,使用人工智能製定飲食的最常見風險如下:

  • AI自我診斷 可能會導致飲食在你不知情的情況下損害原有的器官, 就像糖尿病患者的腎臟一樣。
  • 醫學失明: AI看不到 您的膚色或檢測到“關閉”症狀。 只有專家在看到您前來諮詢時才會注意到。
  • 感官脫節:技術缺乏物理觸摸、手、視覺和聽覺, 對於完整診斷至關重要。
  • 醫生解釋說,盲目跟隨機器人,患者“會造成更大的傷害”。技術無論多麼先進,都無法取代臨床本能。 以及每次醫療諮詢中所需的人性同理心。

此外,英國大學的研究 康奈爾大學 證實人們無法區分真實的醫療反應和人工智能生成的反應,即使它提供了潛在有害的信息,人們仍然相信算法。

為什麼飲食出錯時人工智能自我診斷很危險?

即使你將體重和身高數據提供給人工智能,風險仍然存在。卡斯塔尼達保證 不建議信任算法,即使您認為它們“知道”您的健康狀況 因為你已經提供了。

這些是信任人工智能的主要原因 飲食或診斷是個壞主意:

  • 醫學幻覺:語言模型 他們可以編造令人信服但虛假的事實患者將其視為絕對真理,毫無矛盾。
  • 數字焦慮: 看到飲食有負面影響後的自我診斷會加劇“網絡疑病症” 對尋找實際上可能不存在的疾病和症狀的強迫性焦慮。
  • 虛假安全:病情嚴重的患者會因人工智能的錯誤建議而放心,並在不再有醫療解決方案時到達醫院。
  • 隱藏的偏差:算法可能存在訓練偏差 導致不公平或不准確的飲食建議 對於某些人口和人口群體。

卡斯塔內達已經看到了這種“醫學非人化”對家庭的影響。他講述了一位熟人如何根據人工智能給他的母親開藥,完全無法診斷出這種疾病。

如何負責任地使用人工智能來呵護您的健康?

人工智能是一個很好的工具,但應該反過來使用“卡斯塔涅達博士建議。它不應該是您通往健康的門戶,而應該是中學和教育諮詢的資源。

專家的黃金法則很簡單:

“首先是醫生,最後是情報。用它來弄清楚你的疾病是什麼或應該避免哪些食物,但永遠不要決定服用什麼藥物或開始什麼治療。”

如果您諮詢後還有疑問,技術就來了。 ”如果您不相信,請進行一些研究以獲得更大的了解。”,醫生建議,促進教育和非臨床用途。

歸根結底,醫學需要人性的溫暖。 “這種人類品質將永遠無法複製,”卡斯塔內達總結道。算法可以處理數據, 但無法感知、照顧或理解患者的情況

技術應該成為您幸福的副駕駛,而不是船長。在充滿信息的世界中,最好的“應用程序”仍然是與專家進行面對面的訪問,他會看著您的眼睛,而不是屏幕。

Icono 播放 youtube

來源連結