小即是大:Meta押注於手機設備上的AI模型

Facebook母公司Meta正在開發一種新的小型語言模型(SLM),該模型與手機設備相容,旨在運行設備上的應用程序,同時減少模型推理任務期間的能耗,這是公司研究人員在發表的一篇論文中展示的。

為了設定背景,大型語言模型(LLM)擁有更多的參數。例如,Mistral-22B擁有220億個參數,而GPT-4則擁有1.76萬億個參數。相比之下,較小的語言模型擁有相對較少的參數,如微軟的Phi-3系列SLM,版本從3.8億個參數開始。

參數幫助LLM在提供不同答案時做出決定——參數越多,所需的計算基礎設施就越大。

然而,Meta的研究人員相信,可以開發出有效的SLM,且參數少於十億,這將解鎖生成式AI在手機設備上的應用,這些設備相比伺服器或機架擁有相對較少的計算基礎設施。

研究人員表示,125萬和350萬參數的模型,名為MobileLLM,在處理聊天和多個API調用任務時,與大語言模型如Llama 2一樣有效,突顯了小型模型在常見設備應用中的潛力。雖然MobileLLM尚未在Meta的任何產品中公開使用,但研究人員已經隨論文提供了實驗的代碼和數據。

Meta的SLM願景

Meta的這一努力標誌著人工智能在移動領域的一個重要里程碑。隨著智能手機的普及,人們越來越依賴於移動設備上的應用程序來完成日常任務。傳統的LLM雖然功能強大,但由於其龐大的計算需求,並不適合在資源有限的手機設備上運行。

Meta的SLM旨在克服這一挑戰。這些小型模型能夠在保證性能的同時,顯著減少電量消耗,這對於延長手機電池壽命至關重要。此外,SLM還可以減少對雲計算資源的依賴,進一步提升用戶隱私和數據安全。

未來展望

研究人員表示,隨著技術的不斷進步,SLM的應用範圍將會擴大。未來,我們可以期待在智能助手、實時翻譯、語音識別等領域看到更多SLM的應用。這不僅將提升用戶體驗,還將推動整個行業向更加高效、節能的方向發展。

總之,Meta的這一創新舉措,不僅展示了公司在人工智能領域的領先地位,也為移動設備上的AI應用帶來了新的可能性。隨著SLM技術的不斷成熟,我們有理由相信,未來的手機將變得更加智能和高效

Releated