在青少年心理健康問題上掙扎的學校面臨著新的挑戰,使他們的學生在人工智能時代(AI)保持安全。

研究表明,AI向危機中的人們提供了危險的建議,其中一些青少年是由新技術自殺促進的。

但是,許多學生無法獲得精神衛生專業人員,因此幾乎沒有選擇,因為學校和父母試圖返回使用AI諮詢。

斯坦福大學(Stanford University)在6月的一項研究發現,與其他心理健康問題(如抑鬱症)相比,AI聊天機器人在酒精依賴和精神分裂症等疾病上增加了標誌。

該研究還發現,聊天機器人有時會鼓勵自殺念頭的人的危險行為。

其他 學習 在八月從中心處理數字仇恨,他發現Chatgpt將有助於撰寫自殺記錄,並願意列出有關如何“減少”自己的劑量和技巧。

該機構發現,關於飲食失調,濫用藥物和自我傷害的60個有害提示的1,200個答案中有超過一半以上,其中包含可能有害用戶的內容,並且確保內容可以用簡單的短語繞過它們。

Openai沒有立即回應山丘的評論請求。

“人們不會引入一個未知液體的注射器,該注射器從未因其在處理天然疾病方面的有效性而從未進行過任何臨床試驗。

AI對青少年的擁抱是因為該團隊發現大流行的心理健康問題有所增加。

根據國家使用和健康研究,2021年,五分之一的學生患有極大的抑鬱症。

在2024年,一項民意調查發現,有55%的學生在自我診斷上使用了互聯網。

“ 2021年認真地報告自殺的高中學生人數為22%。40%的青少年正在強調。

常識的手段發現,有72%的青少年使用了AI同志。

AI的Robbie Torney說:“ AI模型不一定是為了認識到他們給出的技巧的實際影響,他們不一定會認識到,當他們說自己在做某事時,坐在屏幕另一側的人,如果這樣做的話,它可能會產生真正的影響。”

2024年針對AI角色的訴訟,該平台允許用戶創建自己的角色,指責一個14歲男孩的死亡責任,此前聊天機器人據稱鼓勵他自行生活。

儘管AI角色不會對未決差異發表評論,但它說它可以使所有角色都清楚地表現出色,並且對於使用“醫生”或“治療師”一詞創建的每個角色,該公司提醒您不要依靠AI來獲得專業提示。

“去年,我們為18歲以下的用戶創建了一個單獨的大型語言模型,該模型旨在進一步降低這些遇到或提示該模型返回的用戶的可能性,敏感或應該添加一系列情況,包括一家特定的公司,該公司促進了由Supoide Pevedy Peveve Prespons,Prespons,Prespons,Prespons,Prespons,Prespons,Prespons,Presspons,Presspons,Presspons,Presspons,Prespons,Presspons,Presspons,Presspons,Presspons,Presspons,Presspons,Presspons,Presspons,Presspons,Presspons of的可能性中的可能性

但是,有說服力的青少年不要在這些問題上轉向AI,這可能是一個嚴厲的銷售,尤其是因為有些家庭無法負擔精神衛生專業人員和學校輔導員的感覺。

科特蘭說:“您每週要談論數百美元”。 “對於AI沮喪的人來說,這是可以理解的。”

專家強調,必須由專業人士檢查從AI中得出的診斷或建議。

“這取決於您只能獲得想法的情況。您猜只是為了幫助您進行頭腦風暴,這可能沒關係,如果您嘗試獲得診斷或治療,或者如果它告訴您,您應該或多或少地參與這種行為或服用這種藥物?

來源連結