自言自語可能會讓人感覺是人類獨有的,但這種習慣也可以幫助機器學習。內部對話有助於組織想法、評估選項和理解情緒。新的研究表明,類似的過程可以改善人工智能的學習和適應方式。在發表於的一項研究中 神經計算沖繩科學技術研究所 (OIST) 的研究人員發現,當人工智能係統經過訓練將內部言語與短期記憶結合使用時,它們在許多任務上都會表現得更好。
研究結果表明,學習不僅取決於人工智能係統的結構,還取決於它在訓練過程中如何與自身互動。 OIST 認知神經機器人研究小組的第一作者 Jeffrey Queißer 博士解釋說:“這項研究強調了自交互在我們學習方式中的重要性。通過以教會我們的系統自言自語的方式構建訓練數據,我們表明學習不僅由我們交互系統的動態交互架構決定,而且還由嵌入在我們交互系統中的架構決定。”
自言自語如何提高人工智能性能
為了驗證這個想法,研究人員將自我導向的內心言語(被描述為無聲的“咕噥者”)與專門的工作記憶系統結合起來。這種方法使他們的人工智能模型能夠更有效地學習、適應不熟悉的情況並同時管理多個任務。結果表明,與僅依賴內存的系統相比,靈活性和整體性能明顯提高。
構建可泛化的人工智能
小組工作的主要目的是處理內容信息。這是指使用一般規則而不是死記硬背的例子,將學到的技能應用到訓練期間遇到的特定情況之外的能力。
“快速改變任務和解決不熟悉的問題是我們人類每天都能輕鬆完成的事情。但對於人工智能來說,這要困難得多,”Queißer 博士說。 “這就是為什麼我們採取跨學科方法,將發展神經科學和心理學與機器學習和機器人技術等相結合,以尋找思考學習和告知人工智能未來的新方法。”
為什麼工作記憶很重要?
研究人員開始研究人工智能模型中的記憶設計,重點關注工作記憶及其總體作用。工作記憶是保存和使用信息的短期能力,無論這意味著遵循指令還是進行快速心理計算。通過測試不同難度級別的任務,團隊比較了不同的記憶結構。
他們發現,具有多個工作內存槽(信息的臨時容器)的模型在解決諸如反轉序列或重新創建模式等難題時表現更好。這些任務需要同時保存多條信息並以正確的順序操作它們。
當團隊添加促使系統多次自言自語的目標時,性能得到了進一步提高。最大的收益體現在多任務處理和需要許多步驟的任務中。
“我們的組合系統特別令人興奮,因為它可以處理稀疏數據,而不是訓練這些泛化模型所需的大量數據集。它提供了一種補充性的輕量級替代方案,”Queißer 博士說。
學會在現實世界中學習
研究人員計劃超越清潔、受控的測試,並研究更現實的條件。 “在現實世界中,我們是在復雜、嘈雜和動態的環境中做出決策和解決問題。為了更好地反映人類發展學習,我們需要考慮這些外部因素,”Queißer 博士說。
這個方向支持該團隊的更廣泛目標,即了解人類學習如何在神經層面發揮作用。 “通過研究內心言語等現象並了解這些過程的機制,我們獲得了對人類生物學和行為的基本新見解,”Queißer 博士總結道。 “例如,我們可以應用這些知識來開發可以在復雜和動態的世界中發揮作用的家用或農業機器人。”










