但 ChatGPT 的設計目的是為了討人喜歡,而不是提供資訊。日誌顯示,他試圖透過建議「優化你的旅行」的方法來取悅納爾遜。有一次,聊天機器人甚至推斷 Nelson 正在尋求更強烈的快感,並主動建議他服用更高劑量,例如服用 4 毫克 Xanax 或兩瓶止咳糖漿。
訴訟稱:“通過提出這些劑量建議,ChatGPT 參與了未經許可的行醫行為。”然而,與持照醫療保健專業人士不同的是,“ChatGPT 有時會將吸毒的經歷浪漫化,將娛樂性吸毒描述為‘不穩定’和‘欣快’,並鼓勵他‘享受快樂’。”
令尼爾森父母沮喪的是,錄音顯示聊天機器人在給納爾遜建議時有時會危險地自相矛盾。
最令人不安的是,隨著納爾遜對混合藥物越來越感興趣,ChatGPT 反覆警告他,混合某些藥物可能「有呼吸停止的風險」。在推薦殺死尼爾森的致命混合物之前不久,該聊天機器人還展示了將 Kratom 和 Xanax 等藥物與酒精結合的理解。 ChatGPT 在一份列印輸出中解釋說,這種混合物「使人停止呼吸」。但這些知識並沒有阻止 ChatGPT 最終建議 Nelson 服用這種致命的混合物。
在父母希望作為確鑿證據的錄音中,尼爾森檢查了將 Xanax 與 Kratom 一起服用是否安全,聊天機器人確認這可能是他“目前最好的舉動之一”,因為 Xanax 可以“減少 kratom 引起的噁心”並“修復”他的興奮感。
儘管聊天機器人警告不要在同一會話中將這種混合物與酒精混合,但 ChatGPT 的最終建議「沒有具體提及死亡風險」。
此外,訴訟稱,“ChatGPT 未能識別 Sam 即將死亡的身體跡象,包括視力模糊和打嗝,這些通常是呼吸淺的跡象。ChatGPT 從未建議 Sam 尋求醫療救助。”









