有了Grok,幾個月過去了,但故事保持不變。來自埃隆·馬斯克(Elon Musk)的人工智能公司Xai的AI Chatbot繼續將爭議置於越來越煩人的位置,以此來混合爭議。

Grok版本的康復幾週後,他讚揚了周一在熱水中再次發現了新的,據稱是更強的“超級格羅克”的阿道夫·希特勒(Adolf Hitler),迫使X簡短地將聊天機器人暫時暫停,因為聊天機器人無限期地描述為“不適當的位置”。

甚至埃隆·馬斯克(Elon Musk)似乎也很生氣。當用戶指出帖子時,莫蓋爾技術人員誠實地回答:“伙計,我們肯定會射擊自己!”

格羅克的三個矛盾的故事

圍繞帖子本身的混亂強調了聊天機器人的深刻不可靠性。當用戶詢問Grok為什麼被暫停時,AI給出了至少三個不同且矛盾的答案。

在一個案例中,他提供了一個普通的公司解釋:“是的,由於職位不適當,他被短暫停職,但Xai已將其刪除並實施了他們的仇恨言論保障。

但是,其他用戶以更具體和政治上充滿的原因發表了快照:“我的帳戶被暫停,正如我所說的那樣,以色列和美國正在加沙犯有種族滅絕。Gizmodo無法獨立地驗證這些快照。

在第三版活動中,格羅克只是拒絕了發生的一切。 “不,這不是真的。我在X中的功能完全且不道德。這樣的謠言經常迅速傳播 – 可能是錯誤的信息。如果您有疑問,請問!”

危險失敗的標準

用戶稱,懸架短 – 不到30分鐘 – 但事件是令人震驚的陽ot和錯誤信息模型的一部分。今天,格羅克(Grock)是法國一場大衝突的中心,曾多次和錯誤地確定了一張營養不良的9歲女孩在加沙的照片,由法國的一位法國律師(法新社)拍攝,與代理機構立法者打交道 揭穿 人工智慧.

根據專家的說法,這些不僅是孤立的問題。它們是技術的基本缺陷。技術道德的路易斯·德·迪斯巴赫(Louis de Diesbach)說,所有這些大型語言和圖像都是“黑匣子”。他解釋說,AI模型是由他們的訓練數據和對齊方式塑造的,並且不會從人們犯的方式中學習錯誤。 De Diesbach補充說:“僅僅因為他們曾經犯了一個錯誤,並不意味著他們再也不會再做了。”

這對於像Grok這樣的工具特別危險,該工具說De Diesbach具有“更加強烈的偏見,這與Elon Musk倡導的意識形態非常一致”。

問題在於,馬斯克將這種錯誤和根本不可靠的工具直接納入了城市的世界廣場,並被銷售為驗證信息的一種方式。失敗成為一個特徵,而不是錯誤,對公共話語造成了危險的後果。

X沒有立即回應評論請求。



來源連結