在沒有更強大的聯邦組織的情況下,一些州開始組織應用程序,這些應用程序可以提供人工智能的“治療”,因為越來越多的人訴諸於人工智能以獲得心理健康建議。
但是,所有這些法律已經通過了今年,但並未完全處理快速場景以製定人工智能計劃。應用程序開發人員,政策制定者和心理擁護者說,由州法律造成的餐館不足以保護用戶或創造者對有害技術的負擔。
“事實是,數以百萬計的人使用這些工具,他們不會返回,” Earkick申請心理健康申請的首席執行官兼聯合創始人Karen Andrea Andrea Stefan說。
州法律採用不同的方法。伊利諾伊州和內華達州禁止使用大赦國際的心理健康。猶他州對治療性聊天計劃有了一定的限制,包括他們為用戶保護健康信息的需求,並清楚地表明聊天機器人不是人類。賓夕法尼亞州,新澤西州和加利福尼亞州也正在研究規範人工智能治療的方法。
對用戶的影響不同。在禁令的情況下,一些申請阻止了訪問。其他人則說他們沒有進行任何更改,因為他們正在等待更明確的法律清晰度。
許多法律不涵蓋諸如Chatgpt之類的一般聊天機器人,這些聊天機器人沒有明確銷售用於治療,但無數人使用。這些機器人在恐怖案件中吸引了訴訟,因為用戶在與現實互動後失去了對現實的控製或私人生活。
負責美國心理協會醫療保健創新的菲爾·賴特(Phil Wright)同意,申請可能會滿足需求,並指出缺乏精神衛生服務提供者,高昂的護理費用以及對被保險人的不必要的機會。
賴特說,精神健康的聊天機器人植根於科學,這是由專家投入創建的,並由人類監控可以改變現場。
她說:“這可能在危機之前可以幫助人們。” “這不是目前的商業市場。”
她說,這是聯邦組織和監督的原因。
本月初,聯邦貿易委員會宣布,它已經在七家大赦國際公司(包括Instagram,Facebook,Google,Google,Chatgpt,Grok,Grok(X上的聊天機器人),Faracter.ai和Snapchat的母公司)進行了詢問。食品和藥物管理局將於11月6日成立諮詢委員會,以審查支持人工智能的心理健康設備。
賴特說,聯邦機構可以考慮如何推銷聊天,減少成癮實踐,要求用戶披露他們不是醫療服務提供商,要求公司跟踪和告知自殺想法,並為報告公司報告不良行為的人們提供法律保護。
並非所有應用程序都阻止“隨附的應用程序”訪問“自我處理”到“心理健康”應用程序,因為在心理保健中使用人工智能是多種多樣的,難以識別,更不用說有關它們的寫作法律了。
這導致了各種組織方法。例如,一些國家的目的是伴隨著僅為友誼而設計的申請,但不要與心理健康作鬥爭。伊利諾伊州和內華達州的法律被禁止,聲稱可以直接提供心理健康治療,威脅伊利諾伊州最高10,000美元的罰款和內華達州的15,000美元。
但是,即使是一個應用程序也很難進行分類。
Earkick的Stefan說,例如,關於伊利諾伊州法律仍然有很多“非常泥濘的”,該公司不限於到達那裡。
斯蒂芬和她的團隊最初停止與聊天機器人聯繫,聊天機器人看起來像是一個卡通熊貓,是處理器。但是,當用戶開始在評論中使用該單詞時,請採用術語,直到應用程序出現在搜索中為止。
上週,他們再次以治療和醫療條款撤退。 earkick將聊天機器人描述為“同情的人工智能顧問,能夠支持心理健康之旅”,但現在是“自我服務的聊天機器人”。
但是,如斯特凡所保留的那樣,“我們沒有被診斷出來”。
如果用戶處於危機狀態,並且聊天機器人“將“恐慌按鈕”與可靠的親人聯繫在一起,“如果他的心理健康狀況較差,則會推動”用戶找到處理器。 Stefan說,這從來沒有被設計為防止自殺的申請,如果有人告訴機器人關於自我障礙的想法,則不會召集警察。
斯蒂芬說,她很高興人們對國際大赦國際的眼睛保持批判性,但他們擔心各國與創新保持同步的能力。
她說:“一切速度都很高,”她說。
其他應用程序禁止立即訪問。當伊利諾伊州用戶下載Ad Ash AI Therapy Ash應用程序時,該消息敦促他們向立法者發送電子郵件,並認為“誤導立法”禁止了像Ash這樣的申請。
Ash發言人沒有回應多個面試請求。
伊利諾伊州金融和職業組織部秘書馬里奧·特里托(Mario Tritto)大三表示,目標最終是確保授權治療師是唯一正在治療的治療師。
特雷奧說:“治療不僅僅是一種單詞交換。” “這需要同情,需要臨床判斷並需要道德責任,目前沒有一個可以重複大赦國際。”
一家聊天機器人公司正試圖在三月份重複完成治療,達特茅斯大學的一支團隊發表了第一個著名的隨機臨床試驗,用於治療人工智能治療心理健康的聊天機器人。
目的是讓聊天機器人(稱為Therabot)治療焦慮,抑鬱或飲食失調的人。他接受了該團隊寫作的簡短文章和文本培訓,以澄清基於證據的回應。
該研究發現,用戶將與處理器類似的療法分類,與未使用該治療的人相比,八週後的症狀較少。如果聊天機器人響應有害或不基於證據,則會由進入聊天機器人響應是否有害的人來監控每個反應。
領導他的研究實驗室的臨床心理學家尼古拉斯·雅各布森(Nicholas Jacobson)表示,結果表明了早期的希望,但是需要更多的研究來證明Therarabot是否正在與大量人合作。
他說:“這個空間是如此新,以至於我認為該領域現在需要更加謹慎地前進。”
許多人工智能應用程序都得到了改進,旨在支持用戶所說的一切,而不是以處理器的方式挑戰人們的想法。許多人處於陪伴和待遇狀態,親密關係的邊界在道德上被誇大了。
Therabot團隊試圖避免這些問題。
該應用程序仍在測試中,並且不廣泛可用。但是雅各布森擔心遵循準確方法的開發人員嚴格禁止的含義。他指出,伊利諾伊州沒有明確的方法來提供證據證明該申請是安全有效的。
他說:“他們想保護人們,但目前的傳統制度確實是失敗的。” “因此,試圖遵守當前情況並不是真正要做的事情。”
組織者和律師說,他們對變革開放。凱爾·海爾曼(Kyle Hellman)在伊利諾伊州和內華達州向賬單施加了責任,他說,屬於全國社會專家協會,他說,凱爾·海爾曼(Kyle Hellman)在伊利諾伊州和內華達州施加了比爾(Nevada)的義務,屬於他與伊利諾伊州和內華達州旅遊協會的隸屬關係,他說,今天的聊天站並不是一個聊天站的解決方案,對精神健康的醫療保健服務不足。
他說:“並不是每個感到難過的人都需要治療師。”但是對於有真正的心理健康問題或自殺思想的人來說,“我告訴他們,”我知道勞動力缺乏,但這是一個機器人 – 這是一個獨特的立場。 “