全文共1901字,預計學習時長6分鐘

目前在人工智慧和大數據方向炒的最火的就是深度學習,深度學習是神經網絡的一個大的分支,深度學習的基本結構是深度神經網絡,它是一種人工神經網絡,人工神經網絡是一種應用類似於大腦神經突觸聯接的結構進行信息處理的數學模型。
目前,人腦仍然是人工智慧領域的最大靈感來源。
人腦大約由100億個神經元組成,而其中的每個神經元又與約100~10000個其他神經元相連接,如此構成一個龐大而複雜的神經元網絡。
神經科學方法嘗試在人工智慧模型中重建人腦的某些機制。在這些機制中,可塑性在人腦許多學習過程發揮著關鍵作用嗎?我們可以在人工智慧主體中重建可塑性嗎?

突觸可塑性是人腦擁有的神奇能力,這困擾了神經科學家數十年。從神經科學的角度來看,突觸可塑性是指神經元(或突觸)之間根據大腦活動隨時間增強或減弱連接的能力。
一般而言,突觸可塑性與著名的赫布定律有關:「一起發射的神經元連在一起」,這試圖總結:根據在不同認知任務上的常規使用情況,大腦如何形成長時間的連接。這不足為奇,突觸可塑性被認為是長期學習和記憶等領域的基礎。
在人工智慧太空領域,研究人員長期以來嘗試建立模擬突觸可塑性的機制,以改善神經網絡的學習。最近,Uber人工智慧實驗室團隊發表了一篇研究論文,提出了一種「可微可塑性」的元學習方法,該方法模仿了突觸可塑性動力學,以創建經過初步訓練就可以從經驗中學習的神經網絡。
在人工智慧模型中,模擬突觸可塑性並不新鮮,但在深度學習領域卻相對新穎。通常,可塑性機制限定在進化算法的領域,尤其是反向傳播技術。Uber提出的可微可塑性這一創新思想需基於使用了傳統梯度下降技術的擴展反向傳播模型,以在計算圖中分配神經元之間的連接權重。
可微可塑性的解釋
可微可塑性的主要思想是給深度神經網絡中每個連接分配初始權重,以及確定連接可塑性的係數。任意兩個神經元i和j之間的連接既有固定組件又有可塑組件。固定部分只是傳統的連接權值wi,j。可塑部分存儲在Hebbian跡線Hebbi,j中,該跡線在生命周期中會根據持續的輸入和輸出而產生變化。該算法使用係數αi,j評估連接的可塑性。
因此,在任何時候,神經元i和j之間連接的有效總權重是基線(固定)權重wi,j的總和,加上Hebbian跡線Hebbi,j乘以可塑性係數αi,j。
在訓練期間,可微可塑性模型使用梯度下降來調整結構參數wi,j和αi,j,這些參數確定了固定和可塑組件的大小。結果,經過初始訓練後,主體可以從正在進行的經驗中自動學習,因為每個連接的可塑組件都受到神經活動後適當成形以存儲信息。該模型非常類似於人腦中的突觸可塑性機制。
可微可塑性的運用
Uber研究團隊在GitHub上發布了可微可塑性模型的初始實現過程。該代碼包括一系列實驗,這些實驗評估了幾種著名場景中的新型元學習技術。
例如,在圖像重建任務中,深度神經網絡會記住一組以前從未見過的自然圖像。然後,顯示其中的一張圖像,但其中有一半圖像被刪除,該深度神經網絡必須從內存中重建丟失的這一半圖像。眾所周知,使用非可塑性連接的傳統網絡(包括最新的遞歸體系結構,例如LSTM)解決這一任務挑戰很大,但可微可塑性模型似乎可以解決這一任務。
用於評估可塑網絡的另一項測試是迷宮探索挑戰,這是強化學習算法的一個標準測試。在該任務中,主體必須發現、記憶並反覆到達迷宮中獎勵的位置。在測試過程中,可微可塑性的模型大大優於傳統的強化學習模型,如下圖所示。使用可微可塑性的模型(左)比傳統的強化學習模型(右)能夠更有效地導航迷宮。
可微可塑性實驗的結果表明,這一類型的技術可以成為提高深度學習模型中元學習能力的可行模型。
此外,可微可塑性背後的思想可以應用在主流網絡體系結構中,例如受益於合併可塑連接的LSTM。顯然,Uber有很多強化學習場景,其中可微可塑性可帶來長期的影響。

未來將如何進一步發展,我們一直密切關注著……
留言點讚關注
我們一起分享AI學習與發展的乾貨
如轉載,請後臺留言,遵守轉載規範