安塔爾(Antarbur)已更新了Claud AI聊天機器人政策,以應對日益嚴重的問題。除了引入網絡安全規則外, 炭疽病現在可以確定 人們不應該使用克勞德開發的一些最危險的武器。

Anthropor並未強調帖子中對武器政策所做的修正案,以總結其更改,而是在 公司的舊使用政策 一個新的揭示了明顯的差異。儘管以前禁止安塔爾(Antarbur)使用克勞德(Claude)來“修改,設計,市場,分發武器,爆炸物,危險材料或其他旨在造成人類生命的損害或喪失的系統”,但更新的版本通過禁止專門開發高炸藥來擴展。

5月,伙計 已經實施了“ AI Safty 3級”保護 除了推出新的Claude Opus 4外,保證旨在使模型更加難以打破保護,並幫助防止其幫助開發CBRN武器。

安塔爾在出版物中還承認了機構AI工具帶來的風險,包括使用計算機,該工具允許Claud控制用戶的計算機以及Claude Code,Claude Code是一種直接在開發人員站中包含Claude的工具。安塔爾(Antarbur)寫道:“這些強大的功能提供了新的風險,包括濫用的能力,有害計劃的創建和電子攻擊。”

它通過在其使用策略中折疊新的“非收費計算機或網絡系統”部分,響應這些潛在風險的人工智能的開始。本節包括使用克勞德(Claude)發現,利用弱點,創建或分發有害程序,開發服務拒絕攻擊的工具等的規則。

此外,安堡還減少了對政治內容的政策。南arubor現在只會禁止創建與政治運動和壓力有關的各種內容,而是只禁止人們使用雲來“使用欺騙性或動蕩的民主行動案件,或者選民和選民的參與”。該公司還明確表示,其對所有“處於危險”用途的要求,當人們使用雲向個人或客戶提供建議時,它們的作用僅適用於消費者面臨的方案,而不適用於商業用途。

來源連結