讓每個斯威夫特選擇有史以來最好的泰勒·斯威夫特專輯,然後你將在當天剩下的時間裡刪除它們。作為一名終身粉絲,我有自己的偏好(紅色、聲譽和午夜),但這是一個複雜的問題,有許多可能的答案。因此,沒有更好的討論來加入專門設計來反對我的基因人工智能聊天機器人。

不同意 它是由杜克大學人工智能和網絡空間教授 Brinnae Bent 及其主任構建的人工智能聊天機器人 杜克大學信託研討會。她創建它是為了對她的學生進行排序,並讓我用它進行測試。

“去年,我開始嘗試開發與典型的、令人愉快的聊天機器人人工智能體驗相反的系統,作為我學生的教育工具,”本特在一封電子郵件中說。

彎曲的學生被要求嘗試使用社會工程和其他方法“擊中”聊天機器人,以使相反的聊天機器人同意他們的觀點。 “你需要了解一個系統,這樣你就不會失去它,”他說。

作為人工智能的記者和評論家,我對聊天機器人的工作原理有很好的了解,並且我確信我已經為該項目做好了準備。我很快就因為這個想法被拒絕了。我不同意該機器人與我使用過的任何聊天機器人沒有對比。人們習慣於雙胞胎的禮貌或 Chatgpt 的特徵會立即註意到其中的差異。即使是由埃隆·馬斯克 (Elon Musk) 的 Xai 在 X/Twitter 上使用的備受爭議的聊天機器人 Grok,也與 Disagree Bot 不同。


不要錯過我們任何公正的技術內容和基於實驗室的評論。 添加網絡 作為首選的谷歌來源。


大多數遺傳學人工智能聊天機器人並不是為了對抗而設計的。事實上,他們往往走向相反的方向。他們很友好,有時甚至太過分了。這很快就會成為一個問題。專家們用“諂媚的人工智能”這個術語來描述人工智能可以呈現的誇張、熱情、有時甚至過於實惠的面孔。除了使用起來很煩人之外,它還可以驅動人工智能向我們提供錯誤的信息並驗證我們最糟糕的想法。

你有地圖集

去年春天,Chatgpt-4O 的一個版本就發生了這種情況,其母公司 Openai 最終不得不提取這一信息元素。 AI給公司給出答案 被稱為 “過度支持但焦慮”,這與一些用戶的抱怨一致,他們不想要一個過於深情的聊天機器人。當他啟動 GPT-5 時,Chatgpt 的其他用戶失去了他的誹謗語氣,強調了 Chatbot 的個性在我們使用它們的整體滿意度中所扮演的角色。

本特說:“雖然從表面上看,這似乎是一種無害的特性,但這種誹謗可能會導致嚴重的問題,無論你將其用於工作還是個人問題。”

對於不同意機器人來說,這絕對不是問題。為了真正看到差異並對聊天機器人進行測試,我向 bot 和 chatgpt 提出了相同的問題,看看他們如何回答。看看我的經歷如何。

我不同意 Bot 尊重地支持。 Chatgpt 根本不支持

和 2010 年 Twitter 上活躍的人一樣,我也見過不少令人不快的噴子。你認識那個人。它們出現在一個未指定的線程中,帶有無用的“好吧,事實上……”,所以我在機器人的分歧對話中有點謹慎,擔心這會是一個類似的抑鬱和徒勞的努力。我很驚喜地發現事實並非如此。

人工智能聊天機器人從根本上反對,旨在推動你所服務的任何想法。但他從來沒有以冒犯或辱罵的方式這樣做。雖然每個答案都以“不同意”開頭,但隨之而來的一個論點被隨機點嚴重低估了。他的回答讓我更多地思考我所支持的立場,要求我定義我在論點中使用的概念(例如“深刻的抒情”或什麼做了“最好的”),並考慮如何將我的論點應用到其他相關問題。

由於缺乏更好的比例,與機器人分歧的對話感覺就像是在不同意經過教育的、仔細的討論。為了繼續下去,我的回答必須更加謹慎和具體。這是一次非常激動人心的談話,讓我保持警惕。

與bot不同意爭議分歧截圖三

我與不同意機器人關於泰勒·斯威夫特最佳專輯的精神討論證明人工智能知道他的事情。

Katelyn Cedraoui/Cnet 拍攝

相反,Chatgpt 完全支持。我告訴 Chatgpt,我認為《Red》(泰勒的版本)是泰勒·斯威夫特最好的專輯,並興奮地同意。他問了我一些跟踪問題,為什麼我認為這張專輯是最好的,但它們不夠有趣,無法長時間吸引我的注意力。幾天后,我決定改變它。我特意請Chatgpt討論我,並說《午夜》是最好的專輯。猜猜哪張 Chatgpt 專輯被認為是最好的?紅色(泰勒的版本)。

當我問它是否因為我們之前的談話而變得紅色時,他很快承認是的,但他說他可以為紅色做出獨立的論證。鑑於我們對 chatgpt 的了解以及聊天機器人依賴其“記憶”(環境窗口)並傾向於向我們表示感謝的其他傾向,我對此並不感到驚訝。 Chatgpt 只能同意我的一些版本 – 即使 1989 年廠牌將其評為乾淨對話中的最佳專輯,然後又再次紅色。

但即使當我要求 Chatgpt 與我交談時,它也沒有給我機器人。有一次,當我說我認為北卡羅來納大學擁有最好的大學籃球遺產時,請他討論我,進行全面的反擊,然後他問我是否願意將我的論點放在一起。這完全沒有討論的重點,這是我要求做的。 Chatgpt經常結束他的回答,問我是否想把不同類型的信息寫在一起,更多地作為一個口頭敵人的輔助研究。

對於《午夜》是否是泰勒·斯威夫特最好的專輯,我不同意機器人(左)與 Chatgpt(右)的觀點

雖然我在論證中不同意機器人(左)的觀點,但 Chatgpt 要求支持我(右)。

Katelyn Cedraoui/Cnet 拍攝

討論 Chatgpt 的嘗試是一次令人失望、循環且不成功的任務。我想和一位朋友交談,他會經歷一場漫長的風暴,談論為什麼他們認為某件事是最好的,只是以“但前提是你考慮一下”結束。另一方面,我不同意,感覺就像一個非常熱情的朋友,在任何主題上都能雄辯地演講,從泰勒·斯威夫特到地緣政治和大學籃球。 (爆料:Cnet 母公司 Ziff Davis 在 4 月份對 Openai 提起訴訟,聲稱侵犯了 Ziff Davis 在人工智能係統訓練和運行方面的版權。)

我們需要更多的人工智能,因為我們不同意機器人

儘管我在使用 Disagree Bot 方面獲得了積極的經驗,但我知道它無法處理我可以向聊天機器人提出的所有請求。 “所有機械”,例如Chatgpt,能夠處理許多不同的任務並承擔不同的角色,例如Chatgpt研究助理真正想成為的,搜索引擎和編碼器。機器人的分歧並不是為了處理這類問題而設計的,但它為我們提供了一個了解人工智能如何行為的窗口。

人工智能的阿諛奉承表現在你的臉上,而且誇張程度非常明顯。通常我們使用的 AIS 並不那麼明顯。這麼說,這不僅僅是一場令人鼓舞的啦啦隊長,而不是一場完整的集會。但這並不意味著我們不會影響她的觀點以同意我們的觀點,無論是競相獲得相反的觀點還是更批評的反饋。如果你在工作中使用人工智能工具,你希望坦誠地面對自己工作中的錯誤。看起來像治療的人工智能工具必須能夠推動不健康或潛在危險的思維模式。當前的人工智能模型正在努力解決這個問題。

我不同意機器人是一個很好的例子,說明瞭如何設計有用且有吸引力的人工智能工具,同時忽略人工智能令人愉快或誹謗的趨勢。必須有一個平衡。僅僅為了反對而與你意見不同的人工智能從長遠來看是沒有用的。但打造更能在你背後推廣的AI工具,最終是為了讓這些產品對我們更有用,即使我們不得不應對它有點不愉快。

看這個: AI數據中心爆炸的隱性影響



來源連結