發生了什麼: 好吧,Reddit 的新人工智能聊天機器人已經造成了嚴重破壞。該機器人名為“Answers”,旨在通過總結舊帖子中的信息來幫助人們。據 404media 報導,Reddit 的最新聊天機器人現已 建議使用硬性毒品 用於治療慢性疼痛。
- 當有人詢問它是否可以治療慢性疼痛時,它指出了一條用戶評論:“具有諷刺意味的是,海洛因在這些情況下拯救了我的生命。”
- 而且情況變得更糟。還有人問了他一個問題,並推薦了卡痛葉,這是一種植物提取物,在一些地方已被禁止,並且與一些嚴重的健康問題有關。
- 最可怕的是 Reddit 就在活躍對話中測試了這個機器人,所以它的糟糕建議是所有人都可以看到的。這些社區的負責人、版主表示,他們甚至無法關閉該功能。
為什麼這很重要: 這是人工智能目前最大問題之一的完美例子,儘管令人恐懼。
- 機器人實際上什麼也不明白。它只是非常擅長查找和重複人們在網上寫的內容,而且它無法區分有用的提示、諷刺的笑話或真正危險的建議。
- 真正的危險在於,它將這些東西置於對話之中,而真正的弱勢群體正在尋求幫助,並將信息作為事實呈現。

我為什麼要關心: 那麼你為什麼關心這個呢?因為它表明,當你放開這些人工智能工具的束縛時,它們會變得多麼危險,尤其是當涉及到你的健康這樣嚴重的事情時。即使您從未向聊天機器人尋求過醫療建議,它的不良建議也可能會開始感染在線社區,讓您更難知道該信任誰或什麼。
接下來是什麼: 在人們(理所當然地)嚇壞了之後,Reddit 證實他們正在將機器人從任何與健康相關的討論中刪除。但他們對於是否真的在機器人本身上安裝安全過濾器一直保持沉默。所以目前來說,問題是固定的,但不一定是解決的。