隨著正在開發的新的定期安全對抗,AI初創企業人為擬人人類已告知Claude Chatbot的政策,以加強潛在的破壞性使用情況。
聊天機器人 現在禁止 使用它來“構成或以其他方式發展高性能炸藥,生物學,化學,放射學或核武器或前體”。雖然 以前包含 禁止設計“武器,爆炸物,危險材料或其他旨在造成傷害的系統”的條款是他們首次包括這種粒狀細節, 邊緣亮點。
相反,克勞德(Claude)放鬆了他在其他一些領域的局限性。聊天機器人已陷入毯子上,以創造所有類型的壓力或競選內容,僅減少了“禁止使用民主程序誤導或煩人的使用案例,或者包括針對選民和競選活動的限制”。他說,此舉符合“法律政治話語”的利益。
此外,克勞德(Claude)還添加了新術語,以阻止他的工具用於cyberettacks或創建惡意軟件。
儘管沒有現實世界恐怖分子的例子使用公共聊天機器人來建立生物學,化學,放射學或核武器,但許多研究指出了這些極端的大型語言模型(LLMS)可能會使用。
2025年4月,Hiddenlayer安全研究人員聲稱,可以繞過OpenAI,Anthropic,Meta和Google的主流LLM 生產司機 富集鈾(這是建造核武器的關鍵部分)。儘管聊天機器人沒有提供Internet上尚未可用的信息,但它以一種清晰的形式呈現,對於沒有必要的技術背景的人來說可能更容易理解。
同時,一份2024年的學術文件,包括來自西北和斯坦福大學的研究人員 引用 和 時代雜誌發現儘管今天的AI模型可能沒有“基本貢獻”生物學風險,但 未來的系統可以幫助 設計引起大流行的新病原體。
由我們的編輯推薦
我們還看到,據稱中國等外國大國用於侵略性目的,儘管是間接的,因為要求聊天在國際上寫和翻譯政治宣傳。
獲得更多對話的5種方法
喜歡你讀什麼?不要錯過我們的最新故事。 添加PCMAG 作為Google的首選來源。
獲取我們的最佳故事!
您的每日最佳技術新聞
單擊我,您確認自己是16歲以上,並同意使用和保護個人數據的政策。
感謝您註冊!
您的訂閱已得到確認。觀看您的收件箱!
因為威爾·麥庫迪
貢獻者
