谷歌週四宣布,「出於商業動機」的行為者試圖透過簡單地刺激其 Gemini AI 聊天機器人來複製知識。據報道,一場競爭性會議在英語以外的其他語言中對該模型進行了超過 100,000 次提示,收集反饋表面上是為了訓練更便宜的模仿者。
谷歌發布的調查結果相當於對其產品威脅的季度自我評估,該評估將該公司描繪成受害者和英雄,這在此類自我評估中並不罕見。谷歌將這種非法活動稱為“模型抓取”,並認為這是知識產權盜竊,考慮到谷歌的法學碩士軟體是根據未經許可從互聯網上抓取的材料創建的,這種立場有些沉重。
谷歌對模仿也不陌生。 2023 年,The Information 報導稱,Google的 Bard 團隊被指控使用 ShareGPT(用戶共享聊天機器人對話的公共網站)的 ChatGPT 輸出來幫助訓練其聊天機器人。谷歌高級人工智慧研究員 Jacob Devlin 創建了相當有影響力的 BERT 語言模型,他警告領導層,這違反了 OpenAI 的服務條款,然後辭職並加入了 OpenAI。谷歌否認了這項指控,但據報導已停止使用這些數據。
然而,Google的服務條款禁止人們以這種方式從其人工智慧模型中提取數據,而該報告為了解有些可疑的人工智慧模型克隆策略的世界提供了一個視窗。該公司認為,肇事者大多是尋求競爭優勢的私人公司和研究人員,並表示攻擊來自世界各地。谷歌拒絕透露嫌疑人的姓名。
處理蒸餾
通常,業界將這種根據先前模型的輸出訓練新模型的做法稱為“蒸餾”,其工作原理如下:如果您想構建自己的大型語言模型(LLM),但缺乏 Google 花費數十億美元和多年的工作來訓練 Gemini,則可以使用預訓練的 LLM 作為捷徑。
發布日期: 2026-02-12 19:42:00
來源連結: arstechnica.com










