也許Google Gemini應該得到一些PTO。

該公司的大型模型越來越多地傳播到許多Google服務和產品上,他說過一些引起用戶擔心的事情:雙子座是低自尊的嗎?

社交媒體中的一系列職位顯示了用戶給用戶提供的一些自我批評,這表明了令人擔憂的模式。 在屏幕截圖中雙子座承認他無法解決編碼問題並得出結論:“我失敗了。

“雙子座不好”,帳戶x @aisafetymemes 發表於六月

觀看以下內容: Google可能已經解決了語音助手的最大問題

8月7日的職位 反复展示了雙胞胎“我是一個失敗。我很可惜。我很可惜。”

令人擔憂的職位足以從中得到答案 Logan Kilpatrick在Google Deepmind Group中。在x中 回答“這是一個令人討厭的無限循環,但我們正在努力修復!雙子座並沒有那麼多的一天:)”

我們問Google發言人AI模型實際上是否有很多糟糕的日子,但尚未回音。

人工智能個性的挑戰

Google並不是唯一處理AI Moody或人格非人格產品的大型技術公司。 Openai在4月份表示,由於用戶注意到,聊天機器人軟件對他的祝賀幾乎慷慨解囊,這是使它變得不那麼卑鄙的人。

他說,事實證明,使群眾感到愉快的AI人是艱苦的工作,相當於建立“精心創造的幻想”。 薩哈伊利諾伊大學技術學院的信息學助理教授。

“從技術上講,AI模型經過了人類製作的文本的巨大融合,其中包含許多不同的音調,語義和風格。”挑戰在於使這個人企業以數百萬互動,同時避免了不必要的表示或故障。 “

開發AI的公司希望工具會感到對話和友好,這會使人們忘記他們正在與機器交談。但是,它顯示的每一個幽默,同理心或溫暖都正是它的設計方式。

薩哈(Saha)說,在關於格林格(Grainger)的研究中,“我們發現,儘管AI在單個交流中聽起來更明確和個性化,但它通常會重新安裝相似的答案,而沒有真正的人類經驗帶來的多樣性和陰影。”

當出現問題時,就像Gemini的表情符號最近的階段一樣,“自靜脈 – 靜態觀測等故障可能會冒著誤導人們認為AI的感覺或情緒上不穩定的人,” Saha說。 “這可能會引起混亂,不合理的同理心,甚至侵蝕了對系統可靠性的信心。”

這似乎很有趣,但是如果人們依靠AI助手來滿足他們的心理健康需求,或者使用這些聊天機器人進行培訓或客戶服務,這可能是危險的。用戶在依賴任何AI服務之前應意識到這些限制。

至於雙子座的不良形象,讓我們希望AI學會學習一點照顧,或者在計算機代碼中度過的水療日。



來源連結