人類的Claude AI聊天機器人現在可以 較早 技術。可能性 現在可以在Opus 4和4.1型號中使用這將使聊天機器人能夠將對話終止為“最後解決方案”,因為儘管用戶多次拒絕和重定向,但用戶已反复要求創建有害內容。擬人化說,目標是幫助AI模型的“可能繁榮”的“可能的繁榮”,結束了克勞德表現出“明顯不適”的相互作用類型。
如果克勞德(Claude)選擇縮短簡短的對話,則用戶將無法向此對話發送新消息。如果要繼續特定線程,他們仍然可以創建新的對話以及過程並重複以前的消息。
在對Claude Opus 4的測試期間,人類說,他發現克勞德(Claude)“對傷害有強烈而持續的厭惡”,包括當他被要求創建未成年人的性內容或提供可能有助於暴力行為和恐怖主義的信息時。人類說,在這些情況下,克勞德(Claude)表現出了“明顯的不適”模式,並且“在獲得能力時結束有害對話的趨勢”。
人類學的指出,引起這種反應的對話是“極端的肢體”,並補充說,即使談論有爭議的問題,大多數用戶也不會符合此路障。 AI的開始還指示Claude如果用戶表明他們可能想傷害自己或對他人造成“迫在眉睫的損害”的跡象,請不要結束對話。 人為夥伴 在途中,在線危機支持提供商,以幫助為自我傷害和心理健康提示提供答案。
上週,Anthropic還告知Claude的使用政策,因為AI模型促進了AI模型引起了更多的安全問題。現在,該公司禁止人們使用Claude開發有機,核,化學或放射學武器,並開發惡意軟件或利用網絡的脆弱性。