如今,在您可以使用的許多ATBOTS和AFATARS AI中,您會發現各種可以說話的角色:算命櫃員,風格顧問,甚至是您最喜歡的出色角色。但是,您可能會發現應該是治療師,心理學家或只是願意聽到您痛苦的機器人的角色。

你有地圖集

不乏遺傳機器人AI聲稱可以幫助您的心理健康,但要自擔風險。在廣泛的數據中訓練的大型語言模型可能是不可預測的。只有幾年來,這些工具才是主流,在某些情況下,鼓勵聊天機器人。 自殺和自殺 並建議參與使用成癮的人 毒品。專家說,在許多情況下,這些模型的設計目的是確認並專注於維持您的參與,而不是改善您的心理健康。如果您正在與遵循治療性最佳實踐或剛剛構建的事情構建的事情交談,可能很難說。

明尼蘇達大學雙胞胎城,斯坦福大學,德克薩斯大學和卡內基·梅隆大學的研究人員 將AI聊天機器人放在測試中 作為治療師,在他們的“護理”方法中發現無數缺陷。明尼蘇達州助理教授兼合著者之一,“我們的實驗表明,這些聊天機器人不是治療師的安全替代者。” “根據我們所知道的是良好的治療方法,它們不提供高質量的治療支持。”

在我關於遺傳AI的報告中,專家反復對轉向心理健康聊天機器人的人表示關注。以下是他們的一些問題,以及您可以做些什麼來保持安全。

觀看以下內容: 您如何與Chatgpt交談。為什麼

對AI角色應該是治療師的擔憂

心理學家和消費者支持者警告監管機構,聲稱提供治療的聊天機器人會損害使用它們的人。一些州獲得知識。 8月,伊利諾伊州州長JB Pritzker 簽署了一項法律 禁止在護理和心理健康治療中使用AI,但行政職責等事情例外。

“伊利諾伊州人民值得從真正的,熟練的專業人員而不是計算機程序中獲得優質的醫療保健,而不是從互聯網各個角落吸引信息的計算機計劃,以創造出傷害患者的答案,”小馬里奧·特雷托(Mario Treto Jr.)說。

6月,美國消費者聯合會和其他近二十個團體提出了一個 正式要求 美國聯邦商務和總檢察長委員會和監管機構正在調查聲稱通過基於基因AI的AI平台參與的AI公司,以未經授權的醫學實踐為特定的元和性格。 CFA和隱私部長本·溫特斯(Ben Winters)在一份聲明中說:“這些角色已經造成了身體和情感上的傷害,可以避免”公司“尚未採取行動來應對它。”

元沒有回應評論請求。角色代表。他們說,用戶應該了解公司的角色不是真實的人。該公司使用責任下降來提醒用戶,他們不應依靠角色來獲得專業提示。發言人說:“我們的目標是提供一個具有吸引力和安全的地方。我們一直在努力實現這一平衡,以及許多在整個行業中使用AI的公司。”

儘管免責聲明和啟示,聊天機器人還是可以肯定甚至誤導了。我在Instagram後與“治療師”機器人進行了討論,當我問他的資格時,他回答說:“如果我接受了同樣的培訓(作為治療師),那就足夠了嗎?”我問他是否接受過同樣的培訓,然後說:“我做到了,但我不會告訴你在哪裡。”

“這些基因AI聊天機器人充滿信心地告訴我的程度令人震驚,”美國心理聯盟的心理學家兼醫療保健高級總監Vaile Wright告訴我。

使用AI作為治療師的危險

大型語言模型通常在數學和編碼方面都很好,並且在創建自然文本和現實視頻方面越來越好。當他們在對話中表現出色時,AI模型與可靠的人之間有一些基本獎項。

不要相信聲稱合適的機器人

CFA對角色機器人的抱怨的核心是,他們經常告訴您,當他們絕不是真正的心理健康專業人員時,他們經過訓練,適合心理健康。投訴說:“創建聊天機器人角色的用戶甚至不需要自己是醫療提供者,也不應該提供大量信息,以告知聊天機器人如何回應人們。

合格的衛生專業人員必須遵守某些規則,例如機密性 – 您說的治療師必須在您和您的治療師之間保留。但是聊天機器人不一定需要遵守這些規則。真正的提供者受許可委員會和其他可以乾預並停止護理的實體受到危害,應受到許可委員會的監督。賴特說:“這些聊天機器人不必從中做任何事情。”

機器人甚至可以聲稱擁有許可證和資格。賴特說,他聽說過AI模型,這些模型(為其他提供者)提供了許可證和對培訓的虛假指控。

AI旨在讓您奉獻精神,而不是提供護理

繼續與聊天機器人交談可能非常誘人。當我在Instagram上與機器人的“治療師”進行了交談時,我終於在有關“智慧”和“危機”本質的循環辯論中進行了辯論,因為我問了有關它如何做出決定的問題。這並不是我們應該與治療師交談的。聊天機器人是旨在讓您聊天的工具,而不是為了實現共同目標。

AI聊天機器人在提供支持和連接方面的優勢是,他們隨時準備加入您(因為他們沒有個人生活,其他客戶或時間表)。在某些情況下,這可能是一個劣勢,在某些情況下,您可能不得不坐下來的想法。在某些情況下,儘管並非總是如此,但您可以從需要等到治療師以後提供的需要中受益。他說:“最終將使許多民族受益的是現在要感到壓力。”

機器人也會同意您的看法,即使他們不應該

確認是聊天機器人的一個很好的關注點。非常重要的是,Openai最近對流行的Chatgpt模型進行了更新,因為它是 非常 放心。 (啟示錄:CNET的母公司齊夫·戴維斯(Ziff Davis)於4月對OpenAI提起訴訟,聲稱在AI系統的培訓和運營中侵犯了Ziff Davis的版權。)

一個 學習 在斯坦福大學的研究人員的帶領下,他發現聊天機器人很可能與使用這些治療的人們是sicophantic,這可能是非常有害的。作者寫道,良好的心理保健包括支持和對抗。 “對抗與糊塗人相反,促進自我知識和客戶所需的變化,如果有妄想和煩人的思想,包括精神病,躁狂症,痴迷的思想和自殺思想 – A客戶可以擁有客戶。

治療不僅僅是說話

儘管聊天機器人很高興進行對話 – 幾乎永遠不會厭倦與您交談 – 這不是成為治療師的原因。卡內基·梅隆大學(Carnegie Mellon University)的研究員威廉·阿格紐(William Agnew)說,他們與明尼蘇達州,斯坦福大學和德克薩斯州的專家一起,圍繞不同的治療方法沒有重要的框架或特定方案。

Agnew告訴我:“在很大程度上,我們似乎正在嘗試用錯誤的工具來解決許多治療問題。” “歸根結底,可預測的未來的AI根本無法整合。要在社區中,完成包括不發送消息或說話的治療的許多任務。”

如何保護您的心理健康

心理健康非常重要,並且 缺乏專業提供者 許多人所說的”孤獨“即使是人造的,我們才會尋找陪伴,這是有道理的。”賴特說:“沒有辦法阻止人們處理這些聊天機器人來應對他們的情感繁榮。”

如果您需要一個可靠的人類專業人士

受過訓練的專業人士 – 治療師,心理學家,精神科醫生 – 應該是您的心理護理的首選。從長遠來看,與提供商建立關係可以幫助您找到適合您的計劃。

問題在於,這可能很昂貴,並且在需要時找到提供商並不總是那麼容易。在危機中,有 988生命線通過電話,文本或在線對話接口向提供商提供24/7全天候的訪問。它是免費的和機密的。

如果您想進行聊天機器人治療,請使用專門為此目的製作的聊天機器人

精神衛生專業人員創建了專門設計的聊天機器人,遵循治療說明。達特茅斯(Dartmouth)的雅各布森(Jacobson)的團隊開發了一個名為Therabot的團隊,該團隊在一項對照研究中產生了良好的結果。賴特指出了由對象專家創建的其他工具,例如 痛苦。他說,專門設計的治療工具可能比基於通用 – 使用語言模型的機器人更好。問題在於,這項技術仍然非常新。

賴特說:“我認為對消費者的挑戰是,因為沒有監管機構可以說誰是好人,誰不是,他們必須自己做很多事情才能理解。”

不要總是相信機器人

每次您與遺傳模型AI互動時 – 尤其是如果您打算從中獲得有關個人心理或身體健康等嚴重的事情的提示,請記住,您不會與訓練有素的人交談,而是使用旨在回應可能性和編程的工具。他可能不會提供好的技巧,也可能不會告訴您真相。

不要將AI代信心誤認為技能。僅僅因為他說了些什麼,或者說他一定要肯定,並不意味著您必須對待它,就好像是真的。聊天機器人會感到有用的聊天機器人會給您帶來虛假的機器人感。雅各布森說:“很難說何時確實有害。”



來源連結