Anthropic 指控 DeepSeek 和另外兩家中國人工智慧公司濫用 Claude AI 模型,試圖改進自己的產品。 Anthropic 在周一的一份聲明中表示,正如先前報導的那樣,「工業規模的活動」涉及創建約 24,000 個詐欺帳戶以及與 Claude 的超過 1600 萬次交易。 華爾街日報。
DeepSeek、MiniMax 和 Moonshot 這三家公司被指控「蒸餾」Claude,或在更先進的人工智慧模型的基礎上訓練更小的人工智慧模型。儘管 Anthropic 表示蒸餾是一種“合法的訓練方法”,但它補充說,它“也可以用於非法目的”,包括“在很短的時間內從其他實驗室獲得強大的功能,而成本只是獨立開發這些功能的一小部分。”
Anthropic 補充說,非法蒸餾的模型「不太可能」帶有現有的保障措施。 Anthropic 寫道:“提煉出美國模式的外國實驗室可以將這些不受保護的能力輸入軍事、情報和監視系統,從而允許專制政府部署邊緣人工智能來進行攻擊性網絡行動、虛假信息活動和大規模監視。”
根據 Anthropic 介紹,DeepSeek 因其強大但更有效率的模型而在 AI 行業引起轟動,與 Claude 進行了超過 15 萬次交流,並瞄準了其推理能力。它還被指控利用克勞德創造「針對異議者、政黨領袖或獨裁主義的政治敏感問題的審查安全替代方案」。在上周致立法者的一封信中,OpenAI 同樣指責 DeepSeek「繼續努力免費使用 OpenAI 和其他美國邊境實驗室開發的功能」。
Moonshot 和 MiniMax 分別與 Claude 進行了超過 340 萬次和 1300 萬次交流。 Anthropic 呼籲人工智慧產業的其他成員、雲端提供者和立法者解決蒸餾問題,並補充說「限制存取晶片」可能會限制模型訓練和「非法蒸餾的規模」。










