人工智能依賴於消耗大量能源的數據中心

賈森·奧爾登/彭博社/蓋蒂

如果我們選擇人工智能模型來更明智地解決問題,僅今年就有可能節省 31.9 太瓦時的能源,相當於五個核反應堆的電力。

蒂亞戈·達席爾瓦·巴羅斯 來自法國蔚藍海岸大學的教授和他的同事研究了人們使用生成式人工智能工具執行的 14 種不同任務,從文本生成到語音識別和圖像分類。

然後,他們檢查了公開的排行榜,包括由機器學習中心 Hugging Face 託管的排行榜,以了解各種模型的性能。使用名為 CarbonTracker 的工具測量推理期間(即 AI 模型產生答案時)模型的能源效率,並通過跟踪用戶上傳來計算該模型的總體能耗。

“根據模型的大小,我們估算了能源消耗,並據此我們可以嘗試進行估算,”da Silva Barros 說道。

研究人員發現,在所有 14 項任務中,每項任務從最高效的模型轉變為最節能的模型,能耗降低了 65.8%,而結果的有用性僅降低了 3.9%——他們認為這種權衡可能為公眾所接受。

由於有些人已經在使用最節能的機型,如果現實世界中的人們從高性能機型切換到最節能的機型,總體可以實現能耗降低27.8%。 “我們對能夠節省多少錢感到驚訝,”一名團隊成員說道 弗雷德里克·吉魯阿爾 在法國國家科學研究中心。

然而,達席爾瓦·巴羅斯表示,這需要用戶和人工智能公司都做出改變。 “我們必須考慮使用更小的模型,即使我們會損失一些性能,”他說。 “對於公司來說,當他們開發模型時,共享一些有關模型的信息非常重要,這樣用戶就可以了解和評估模型是否非常耗能。”

一些人工智能公司通過稱為模型蒸餾的過程來降低其產品的功耗,即使用大型模型來訓練較小的模型。說它已經產生了重大影響 克里斯·普雷斯特 在英國布里斯託大學。例如,谷歌最近表示 能源效率提高 33 倍 過去一年在雙子座。

然而,正如作者所言,允許用戶選擇最高效的模型“不太可能限制數據中心功耗的增加,至少在當前的人工智能泡沫中是這樣。” 普雷斯特說。 “降低提示的能源成本只會讓我們能夠使用更複雜的推理選項更快地為更多客戶提供服務,”他說。

“使用較小的模型肯定可以在短期內降低能耗,但在對未來做出任何有意義的預測時,還需要考慮許多其他因素,”說 薩莎·盧奇奧尼 在《擁抱的臉》中。她警告說,“需要考慮消費增加等反彈效應,以及對社會和經濟的更廣泛影響。”

盧奇奧尼指出,由於個別公司缺乏透明度,該領域的任何研究都是基於外部評估和分析。 “為了進行這種更複雜的分析,我們需要人工智能公司、數據中心運營商甚至政府提高透明度,”她說。 “這將使研究人員和政策制定者能夠做出明智的預測和決策。”

主題:

來源連結