如何重建深層神經網絡的可塑性?

2020-12-05 讀芯術

全文共1901字,預計學習時長6分鐘

圖源:Unsplash

目前在人工智慧和大數據方向炒的最火的就是深度學習,深度學習是神經網絡的一個大的分支,深度學習的基本結構是深度神經網絡,它是一種人工神經網絡,人工神經網絡是一種應用類似於大腦神經突觸聯接的結構進行信息處理的數學模型。

目前,人腦仍然是人工智慧領域的最大靈感來源。

人腦大約由100億個神經元組成,而其中的每個神經元又與約100~10000個其他神經元相連接,如此構成一個龐大而複雜的神經元網絡。

神經科學方法嘗試在人工智慧模型中重建人腦的某些機制。在這些機制中,可塑性在人腦許多學習過程發揮著關鍵作用嗎?我們可以在人工智慧主體中重建可塑性嗎?

圖源:Unsplash

突觸可塑性是人腦擁有的神奇能力,這困擾了神經科學家數十年。從神經科學的角度來看,突觸可塑性是指神經元(或突觸)之間根據大腦活動隨時間增強或減弱連接的能力。

一般而言,突觸可塑性與著名的赫布定律有關:「一起發射的神經元連在一起」,這試圖總結:根據在不同認知任務上的常規使用情況,大腦如何形成長時間的連接。這不足為奇,突觸可塑性被認為是長期學習和記憶等領域的基礎。

在人工智慧太空領域,研究人員長期以來嘗試建立模擬突觸可塑性的機制,以改善神經網絡的學習。最近,Uber人工智慧實驗室團隊發表了一篇研究論文,提出了一種「可微可塑性」的元學習方法,該方法模仿了突觸可塑性動力學,以創建經過初步訓練就可以從經驗中學習的神經網絡。

在人工智慧模型中,模擬突觸可塑性並不新鮮,但在深度學習領域卻相對新穎。通常,可塑性機制限定在進化算法的領域,尤其是反向傳播技術。Uber提出的可微可塑性這一創新思想需基於使用了傳統梯度下降技術的擴展反向傳播模型,以在計算圖中分配神經元之間的連接權重。

可微可塑性的解釋

可微可塑性的主要思想是給深度神經網絡中每個連接分配初始權重,以及確定連接可塑性的係數。任意兩個神經元i和j之間的連接既有固定組件又有可塑組件。固定部分只是傳統的連接權值wi,j。可塑部分存儲在Hebbian跡線Hebbi,j中,該跡線在生命周期中會根據持續的輸入和輸出而產生變化。該算法使用係數αi,j評估連接的可塑性。

因此,在任何時候,神經元i和j之間連接的有效總權重是基線(固定)權重wi,j的總和,加上Hebbian跡線Hebbi,j乘以可塑性係數αi,j。

在訓練期間,可微可塑性模型使用梯度下降來調整結構參數wi,j和αi,j,這些參數確定了固定和可塑組件的大小。結果,經過初始訓練後,主體可以從正在進行的經驗中自動學習,因為每個連接的可塑組件都受到神經活動後適當成形以存儲信息。該模型非常類似於人腦中的突觸可塑性機制。

可微可塑性的運用

Uber研究團隊在GitHub上發布了可微可塑性模型的初始實現過程。該代碼包括一系列實驗,這些實驗評估了幾種著名場景中的新型元學習技術。

例如,在圖像重建任務中,深度神經網絡會記住一組以前從未見過的自然圖像。然後,顯示其中的一張圖像,但其中有一半圖像被刪除,該深度神經網絡必須從內存中重建丟失的這一半圖像。眾所周知,使用非可塑性連接的傳統網絡(包括最新的遞歸體系結構,例如LSTM)解決這一任務挑戰很大,但可微可塑性模型似乎可以解決這一任務。

用於評估可塑網絡的另一項測試是迷宮探索挑戰,這是強化學習算法的一個標準測試。在該任務中,主體必須發現、記憶並反覆到達迷宮中獎勵的位置。在測試過程中,可微可塑性的模型大大優於傳統的強化學習模型,如下圖所示。使用可微可塑性的模型(左)比傳統的強化學習模型(右)能夠更有效地導航迷宮。

可微可塑性實驗的結果表明,這一類型的技術可以成為提高深度學習模型中元學習能力的可行模型。

此外,可微可塑性背後的思想可以應用在主流網絡體系結構中,例如受益於合併可塑連接的LSTM。顯然,Uber有很多強化學習場景,其中可微可塑性可帶來長期的影響。

圖源:Unsplash

未來將如何進一步發展,我們一直密切關注著……

留言點讚關注

我們一起分享AI學習與發展的乾貨

如轉載,請後臺留言,遵守轉載規範

相關焦點

  • Fos神經網絡的雙向抑制可塑性
    Fos神經網絡的雙向抑制可塑性 作者:小柯機器人 發布時間:2020/12/10 16:42:50 美國哈佛醫學院Michael E. Greenberg研究團隊的最新研究揭示了Fos神經元網絡的雙向滲透抑制可塑性。
  • 最強大腦皮層神經網絡重建 揭哺乳動物最大神經線路圖
    最新Science雜誌封面,發布了知名的德國馬克斯·普朗克腦研究所的最新腦科學成果:他們七年磨一劍,重建了非常複雜的大腦皮層神經網絡,揭示了迄今為止最大哺乳動物神經線路圖。此前,人類只知大腦神經元的「樣子」,現在,哺乳動物神經元如何連接——首次得到揭秘,並實現了更大量級的大腦皮層神經網絡的重建。並且AI的方法在其中發揮重要作用,研究者還說,這種突破還可能進一步為AI發展提供指導:「揭開生物神經網絡連接秘密,或許可以進一步探明大腦高效計算原理。
  • 缺血性腦卒中後運動誘導的神經可塑性:病理學和機制
    各種療法誘導的恢復過程通常涉及新生的軸突芽,這些軸突芽通過神經支配失神經的靶細胞,有助於建立新的神經環路,因此缺血性腦卒中後功能恢復與神經可塑性有關。神經可塑性的定義是大腦的結構和功能的改變,使其能夠適應學習、記憶、環境和腦損傷後的康復治療。它是一個動態的過程,涉及到大腦神經核團數量和結構、多種功能和相互作用的改變。雖然缺血性腦卒中後腦損傷有自發性重塑發生,但這些不足以產生充分的功能恢復。
  • 美科學家發現恢復神經可塑性方法
    據美國《技術評論》雜誌12月1日報導,科學家宣稱他們找到新的方式來控制神經的可塑性(大腦自身重新「充電」的能力),可使成年人的大腦像年輕人的一樣靈活。
  • 大腦皮層神經網絡測量取得新突破
    來源:科技日報科技日報北京10月31日電 (記者顧鋼)哺乳動物的大腦具有大量神經細胞和極高的通信密度,是已知最複雜的網絡。使用優化的基於AI的圖像處理以及人機數據分析之間的有效交互,研究人員能夠在此組織段中重建所有大約40萬個突觸和大約2.7米的神經元網絡。重建的組織再現了約7000個軸突和大約3700個突觸後神經細胞過程之間的結締,即神經網絡局部完整的通信圖。重建不僅產生了更大的網絡圖,而且效率提高了約33倍,這是哺乳動物大腦進行密集的多項式重建的新標準。
  • 科學家宣稱找到新方式控制神經可塑性
    美國《技術評論》雜誌12月1日報導,科學家宣稱他們找到新的方式來控制神經的可塑性(大腦自身重新「充電」的能力),可使成年人的大腦像年輕人的大腦一樣靈活。大腦在發育過程中有一個可塑性的「臨界時期」,在此階段,景象和聲音等外界刺激對不同大腦系統的正常發育非常重要。
  • 神經可塑性
    未損壞的軸突也會長出神經末梢,與其他未損壞的神經細胞相連接,形成新的神經通路來完成所需的功能。       但是在很長一段時間,醫生和神經科學家都以為人類大腦一旦損壞,就是永久性的,不可逆轉的。20世紀後半葉,醫學界發現並逐漸接受了一個革命性的全新理念,我們的大腦可以重新生長新細胞、修復損傷,重新形成新的連接,並重新分配大腦資源,以恢復失去的功能,這就是神經可塑性。
  • 3981小時重建了500000立方微米小鼠大腦
    他們在大約7,000個軸突和大約3,700個突觸後神經突之間建立了一個連接體,產生的連接體比六十年前從小鼠視網膜獲得的連接體大26倍。重要的是,這種重建同時要比應用於視網膜的重建大,效率要高出33倍。這種方法揭示了有關皮層皮質和興奮性丘腦皮質連接的抑制性和興奮性突觸的連通性的信息。
  • 神經突觸可塑性背後的分子機制
    面對慢性的各級神經網絡活動的變化,動態平衡的神經突觸可塑性保證了神經元細胞在最優範圍內輸出最佳信號。然而,這種現象背後的分子機制人們知之甚少,特別是對於活性增高的回應機制還不為人所知。 在5月22日的《神經元》(Neuron)上,Seeburg等人研究指出,在海馬神經元活性增高的過程中,誘導蛋白激酶Polo樣激酶2(Plk2,也稱SNK)的突觸放大的主要機制是動態平衡的神經突觸可塑性。神經突觸的縮放尺度還需要CDK5,CDK5在磷酸依賴型Plk2與其底物SPAR的結合過程中充當著「啟動」激酶的作用。
  • 自動化所成功將腦神經系統原理應用於類腦脈衝神經網絡
    最近,中國科學院自動化研究所類腦智能研究中心研究員曾毅與團隊成員在一項研究中總結歸納了七條受腦啟發的學習準則,並成功應用於改善脈衝神經網絡。通過組合不同的受腦啟發的規則,實驗研究驗證了:隨著越來越多的、經過仔細選擇的、受腦啟發的規則的引入,深層脈衝神經網絡能夠得到越來越好的分類性能。
  • Nature:經驗怎樣調製神經可塑性
    大腦能夠學習和存儲記憶的能力與可塑性、即神經通道和突觸響應於行為、環境和其他輸入而發生變化的能力有關。在生命早期關鍵時期的可塑性以前被與「表達小清蛋白的中間神經元」 (PV+ 細胞)的成熟相聯繫,但我們對其中發揮作用的機制卻知之甚少。在這項研究中,Pico Caroni及同事識別出了與成年小鼠的中間神經元中的小清蛋白表達水平相關的不同網絡狀態。
  • 《超智能體》作者講述深層神經網絡設計理念(附PPT+視頻) | 雷鋒網...
    本期雷鋒網(公眾號:雷鋒網)硬創公開課邀請到《超智能體》一書作者於建國,分享的內容就是理解為何「深層」比「淺層」網絡要好,深度學習適用於什麼任務,並嘗試找出前饋神經網絡、循環神經網絡、卷及神經網絡、殘差網絡、預訓練、多任務學習、端到端學習、自動編碼器、遷移學習、distillation、dropout、regularization、batch-normalization
  • 認知神經的可塑性:赫布理論的哲學意蘊
    作者:浙江師範大學法政學院 黃家裕  內容提要:赫布批判性地繼承了巴甫洛夫的反射論,創立神經學習理論,馬克海姆則進一步發展了赫布的學習理論。通過分析神經學習理論的思想可知,認知及其神經基礎具有可塑性。
  • 神經網絡如何完成表徵?
    假設你了解前向和後向傳播的一點基礎,其旨在藉助梯度和網絡中的錯誤傳播來近似函數。讓我們通過另一種視覺解釋來理解神經網絡的近似能力。其中涉及基礎數學和圖形分析。 在數學上,我們將研究給定神經網絡的表徵能力,以便提供近似的函數。表徵能力與神經網絡的能力相關,神經網絡會為特定實例分配適當標籤並為該類創建明確定義的準確決策邊界。
  • 如何用張量分解加速深層神經網絡?(附代碼)
    加上裁剪(pruning),張量分解是加快現有深度神經網絡的實用工具,我希望這篇文章能讓這些內容更加容易理解。這些方法需要將一個層分解成幾個更小的層。儘管在分解後會有更多的層,但是浮點運算次數和權重的總數會變小。一些報告的結果是整個網絡的x8倍的速度提升(不針對像imagenet這樣的大型任務),或者imagenet中的特定層中x4倍的提升。
  • 研究發現大腦可塑性機制—新聞—科學網
    童年時期人類大腦具有很強的可塑性,所有早期哺乳動物大腦不同區域在響應外部刺激重建神經連接時,會出現一個「關鍵時期」,破壞這種精確的發育過程會造成嚴重傷害,出現涉及破壞關鍵時期的自閉症等。 研究報告第一作者、塔夫斯大學醫學院研究科學家Adema Ribic說:「眾所周知,大腦抑制性神經細胞的成熟控制關鍵時期可塑性的開始,但是這種可塑性是如何隨著大腦成熟而減弱的原因尚不清楚。我們有證據表明,一組叫作SynCAMs的分子可能參與該過程。」 該研究聚焦於視覺皮層,這是負責處理視覺場景的大腦部分,其中的可塑性已在許多物種中得到了驗證。
  • 下一個突破性創新數字業務模式:神經可塑性「雲」
    後來研究證明人腦實際上是可塑的:為了對環境激勵做出響應並藉助思維行為本身,人腦在動態地改變自己的結構、功能和神經連接,甚至通過神經再生長出新的神經元。而且這種神經可塑性會一直持續到老。  神經可塑性和雲計算  近期神經科學的最新進展已經顯示我們通過採用新的思維模式和行為方式就可以輕鬆地重塑自己的大腦。大腦和神經系統用於定位行為的神經路徑連接著大腦中相對較遠的區域,而且每一個路徑都與特定的領域或行為息息相關。新的思維和技能一旦出現,就會鋪設新的路徑。
  • 神經網絡的基礎是MP模型?南大周志華組提出新型神經元模型FT
    據論文介紹,這項研究為神經網絡提供了一種新的基本構造單元,展示了開發具有神經元可塑性的人工神經網絡的可行性。當前的神經網絡大多基於 MP 模型,即按照生物神經元的結構和工作原理構造出來的抽象和簡化模型。此類模型通常將神經元形式化為一個「激活函數複合上輸入信號加權和」的形式。
  • 大腦如何將外部信息轉化為記憶?新研究破譯突觸可塑性機制
    科技日報訊 人類大腦如何將外部信息轉化為自己的記憶?作為「人類大腦計劃」的一部分,來自德國、瑞典和瑞士的科研小組研究了大腦紋狀體中的神經元迴路。研究結果發表在近期的《計算生物學》雜誌上,對理解神經系統的基本功能具有重要意義。
  • 如何使用Keras構建殘差神經網絡?
    什麼是殘差神經網絡?原則上,神經網絡的層數越多,應獲得越好的結果。一個更深層的網絡可以學到任何淺層的東西,甚至可能更多。如果對於給定的數據集,網絡無法通過添加更多的層來學習更多東西,那麼它就可以學習這些其他層的恆等映射(identity mappings)。這樣,它可以保留先前層中的信息,並且不會比較淺的層更糟糕。