科學家提出具有同層側向激勵和抑制的卷積脈衝神經網絡模型

2020-11-23 騰訊網

如果有人朝你扔過來一個球,通常你會怎麼辦?——當然是馬上把它接住。

這個問題是不是很簡單?但實際上,這一過程是最複雜的處理過程之一:首先,在複雜的背景環境下,球進入人的視野,被視網膜捕捉到後,經視覺通路發送到大腦處理視覺信息的腦區,進行更加徹底的圖像分析。同時視皮層與其他腦區協作,判斷物體的種類,預測它的行進軌跡,最終通過傳出神經控制肌肉的運動,決定人的下一步行動:舉起雙手、接住球。上述過程只在零點幾秒內發生,幾乎完全是下意識的行為,也很少會出差錯。

為了讓計算機模仿這一過程,首先需要讓計算機做到像人類那樣「看」,尤其是在嘈雜背景下像人類那樣快速準確地「看」,成為近年來視覺感知這一研究領域備受關注的關鍵問題之一。

近年來,基於梯度反向傳播的脈衝神經網絡(SNN)訓練方法逐漸興起。在這種訓練方法下,SNN能夠在保留神經元內部動力學的同時獲得較好的性能。

在此基礎上,中國科學院自動化研究所聽覺模型與認知計算團隊模仿刻畫視聽覺系統神經元側向作用的數學模型動態神經場,提出了具有側向作用的SNN——LISNN,用於圖像識別任務。並且在測試中,根據側向作用的動力學特點,人為加入噪聲以驗證側向作用對網絡魯棒性的提升。

在生物神經系統的感受器中存在著臨近神經元間的相互抑制和相互激勵。其中,側向抑制最初為解釋馬赫帶效應而提出,即人們在明暗變化邊界上常常會在亮處看到一條更亮的光帶而在暗區看到一條更暗的線條(見圖1)。這種側向作用後來在鱟、貓等多種動物的不同感覺系統中被證實並應用在仿生的計算模型中。

LISNN的結構如圖2所示,前端是兩層具有卷積感受野的脈衝神經元層,每層後面有一層平均池化層,後端是兩層全連接的脈衝神經元層。具有卷積感受野的脈衝神經元在模型中承擔特徵提取的功能,類似於感受器的作用,因此只在這層結構中使用側向作用。在側向作用機制下,每個脈衝神經元的膜電位都額外受鄰域內的其他神經元上一時刻狀態的影響。在目前已有的使用側向作用的計算模型中,側向作用係數往往是固定的和神經元間距離相關的函數,而LISNN中的側向作用係數則可以通過反向傳播進行學習。

該研究工作分別在靜態數據集MNIST與Fashion MNIST、動態數據集N-MNIST上對LISNN的性能進行了驗證。輸入數據以特定方式編碼為一定長度的脈衝序列,每個時刻的序列規模與原圖像(或事件點坐標範圍)相同。模型在MNIST和N-MNIST數據集上均取得了和已有最好性能相近的結果;在Fashion-MNIST數據集上則取得了SNN中的最好性能。本模型與已發表模型的性能對比見圖3-5。

除此之外,團隊還選擇在MNIST和Fashion MNIST的測試集中加入不同水平的高斯噪聲和脈衝噪聲,以進一步測試側向作用對網絡魯棒性的提升。圖6展示了部分原始圖片和加噪後的圖片。

圖7中,灰線和藍線分別代表LISNN和沒有側向作用的SNN在添加了高斯噪聲的測試集上的準確率;黃線和橙線分別代表LISNN和沒有側向作用的SNN在添加了脈衝噪聲的測試集上的準確率。在大部分情況下,LISNN的性能損失都小於沒有側向作用的SNN,尤其是在訓練集中沒有添加噪聲數據的情況下。

與傳統的神經網絡算法相比,所提算法能取得較好的性能並自然地實現對噪聲幹擾的抗性,具有一定理論研究價值和工程實用價值。

圖1 馬赫帶效應示意(圖引wiki)

圖2 LISNN模型結構示意圖

圖3 靜態圖像數據集MNIST上,LISNN模型與已發表模型準確率對比

圖4 靜態圖像數據集Fashion MNIST上,LISNN模型與已發表模型準確率對比

圖5 動態圖像數據集N-MNIST上,LISNN模型與已發表模型準確率對比

圖6 (a)三行依次為原始MNIST測試集圖片、加入高斯噪聲後的圖片、加入脈衝噪聲後的圖片;(b)三行依次為原始Fashion MNIST測試集圖片、加入高斯噪聲後的圖片、加入脈衝噪聲後的圖片

圖7 (a)模型在無噪聲的MNIST訓練集上訓練;(b)模型在無噪聲的Fashion MNIST訓練集上訓練;(c)模型在有高斯噪聲的MNIST訓練集上訓練;(d)模型在有高斯噪聲的Fashion MNIST訓練集上訓練

來源:中國科學院自動化研究所

相關焦點

  • 自動化所提出具有同層側向激勵和抑制的卷積脈衝神經網絡模型
    在此基礎上,中國科學院自動化研究所聽覺模型與認知計算團隊模仿刻畫視聽覺系統神經元側向作用的數學模型動態神經場,提出了具有側向作用的SNN——LISNN,用於圖像識別任務。並且在測試中,根據側向作用的動力學特點,人為加入噪聲以驗證側向作用對網絡魯棒性的提升。  在生物神經系統的感受器中存在著臨近神經元間的相互抑制和相互激勵。
  • 人工智慧之卷積神經網絡(CNN)
    ^_^本文引用地址:http://www.eepw.com.cn/article/201806/381807.htm  20世紀60年代,Hubel和Wiesel在研究貓腦皮層中用於局部敏感和方向選擇的神經元時發現其獨特的網絡結構可以有效地降低反饋神經網絡的複雜性,繼而提出了卷積神經網絡CNN(Convolutional Neural Networks)。
  • 深度學習之卷積神經網絡經典模型
    下面詳細介紹一下LeNet-5模型工作的原理。LeNet-5模型一共有7層,每層包含眾多參數,也就是卷積神經網絡中的參數。雖然層數只有7層,這在如今龐大的神經網絡中可是說是非常少的了,但是包含了卷積層,池化層,全連接層,可謂麻雀雖小五臟俱全了。為了方便,我們把卷積層稱為C層,下採樣層叫做下採樣層。
  • 一文了解卷積神經網絡基礎,建議收藏
    今天給大家講一下卷積神經網絡,主要包括四個部分:卷積神經網絡的歷史、全連接層、卷積層和池化層。CNN的英文全稱是Convolutional Neural Network,雛形是LeCun在1998年發明的LeNet網絡結構。
  • 深入理解卷積網絡的卷積
    卷積神經網絡是一種特殊的神經網絡結構,是自動駕駛汽車、人臉識別系統等計算機視覺應用的基礎,其中基本的矩陣乘法運算被卷積運算取代。它們專門處理具有網格狀拓撲結構的數據。例如,時間序列數據和圖像數據可以看作是一個二維像素網格。
  • AI入門:卷積神經網絡
    講到AI不得不講深度學習,而講到深度學習,又不能不講卷積神經網絡。如果把深度學習比作中國的網際網路界,那捲積神經網絡和循環神經網絡就是騰訊和阿里級別的地位。今天我們主要討論的卷積神經網絡,到底卷積神經網絡能解決什麼問題,它的結構是怎樣的?是怎麼學習的?應用在哪些具體的產品上?本文將為大家一一解答。
  • PyTorch可視化理解卷積神經網絡
    如果你是一個深度學習愛好者,你可能早已聽說過這種神經網絡,並且可能已經使用一些深度學習框架比如caffe、TensorFlow、pytorch實現了一些圖像分類器。然而,這仍然存在一個問題:數據是如何在人工神經網絡傳送以及計算機是如何從中學習的。為了從頭開始獲得清晰的視角,本文將通過對每一層進行可視化以深入理解卷積神經網絡。
  • 神經網絡模型預測值 論文_bp神經網絡預測模型建模步驟 - CSDN
    在下圖的基本神經元結構後面,你會看到詳細的講解:基本的人工神經網絡神經元(basic neural network cell)相當簡單,這種簡單的類型可以在常規的前饋人工神經網絡架構裡面找到。這種神經元與其它神經元之間的連接具有權重,也就是說,它可以和前一層神經網絡層中的所有神經元有連接。
  • 知識普及:卷積神經網絡模型是怎樣工作的?可以做些什麼?
    知識普及:卷積神經網絡模型是怎樣工作的?可以做些什麼? 眾所周知,在過去的幾年裡,卷積神經網絡(CNN或ConvNet)在深度學習領域取得了許多重大突破,但對於大多數人而言,這個描述是相當不直觀的。因此,要了解模型取得了怎樣大的突破,我們應該先了解卷積神經網絡是怎樣工作的。 卷積神經網絡可以做些什麼? 卷積神經網絡用於在圖像中尋找特徵。在CNN的前幾層中,神經網絡可以進行簡單的「線條」和「角」的識別。
  • 卷積神經網絡的卷積到底是什麼
    它們專門處理具有網格狀拓撲結構的數據。例如,時間序列數據和圖像數據可以看作是一個二維像素網格。它的靈感來自於Hubel和Weisel提出的神經系統的層次模型。但由於其複雜的無監督學習算法,即無監督學習,該模型並不受歡迎。1989年,Yann LeCun利用反向傳播和Neocognitron的概念提出了一種名為LeNet的架構,該架構被美國和歐洲用於手寫的郵政編碼識別。郵政服務。
  • 如何讓圖卷積網絡變深?騰訊AI Lab聯合清華提出DropEdge
    這些模型分類效果往往隨著深度加深而變差(即使使用殘差連接),這與用於圖片分類的卷積網絡動輒超過幾十層的現象很不一致。圖卷積神經網絡變深之後難以訓練的現象嚴重製約了其表達能力。所以,如何有效的訓練超深圖卷積網絡是圖學習研究的一個重大挑戰。這項工作由騰訊 AI Lab 與清華大學合作完成。
  • 從特徵檢測器到視覺轉換器:卷積神經網絡的時代到此結束了嗎?
    圖源:unsplash近十年來,卷積神經網絡一直在全球計算機視覺研究領域發揮著主導作用。但研究者們正在提出一種新方法,想要利用轉換器的功能賦予圖像更深層的意義。卷積神經網絡(CNN)存在的問題在深入研究視覺轉換器的運行方式之前,釐清卷積神經網絡的缺點和根本缺陷很有必要。首先,卷積神經網絡無法編碼相對空間信息。也就是說,它僅關注於檢測某些特徵,而忽略了相對空間位置。上面兩幅圖像都會被識別為人臉,因為卷積神經網絡只關注輸入圖像中是否存在某些特徵,而忽略了它們相對於彼此的位置。
  • 人工智慧之卷積神經網絡
    神經網絡的概念和組成部分人工神經網絡(Artificial Neural Networks,簡寫為ANNs)也簡稱為神經網絡(NNs)或稱作連接模型(Connection Model),它是一種模仿動物神經網絡行為特徵,進行分布式並行信息處理的算法數學模型。這種網絡依靠系統的複雜程度,通過調整內部大量節點之間相互連接的關係,從而達到處理信息的目的。
  • 深度卷積神經網絡演化歷史及結構改進脈絡-40頁長文全面解讀
    第一個真正意義上的卷積神經網絡由LeCun在1989年提出[1],後來進行了改進,它被用於手寫字符的識別,是當前各種深度卷積神經網絡的鼻祖。接下來我們介紹LeCun在早期提出的3種卷積網絡結構。 文獻[1]的網絡由卷積層和全連接層構成,網絡的輸入是16x16的歸一化圖像,輸出為0-9這10個類,中間是3個隱含層。
  • 神經網絡的基礎是MP模型?南大周志華組提出新型神經元模型FT
    據論文介紹,這項研究為神經網絡提供了一種新的基本構造單元,展示了開發具有神經元可塑性的人工神經網絡的可行性。當前的神經網絡大多基於 MP 模型,即按照生物神經元的結構和工作原理構造出來的抽象和簡化模型。此類模型通常將神經元形式化為一個「激活函數複合上輸入信號加權和」的形式。
  • Google提出移動端新SOTA模型MixNets:用混合深度卷積核提升精度
    如預期的那樣,更大的卷積核大小會使用更多參數顯著增加模型大小;當卷積核大小從3x3上升到7x7時,模型精度也跟著提升,但是當卷積核尺寸大於9x9時,模型精度會迅速下降,這表明較大的卷積核尺寸可能會損害精度和性能。實際上,這種觀察結果與卷積網絡的第一種直覺相吻合:在極端情況下,卷積核大小等於輸入解析度,卷積網絡變成了完全連接的網絡,眾所周知這是非常差的設計方式。
  • 環信人工智慧專家李理:詳解卷積神經網絡
    深度學習受到大家的關注很大一個原因就是Alex等人實現的AlexNet(一種深度卷積神經網絡)在LSVRC-2010 ImageNet這個比賽中取得了非常好的成績。此後,卷積神經網絡及其變種被廣泛應用於各種圖像相關任務。 這裡主要參考了Neural Networks and Deep Learning和cs231n的課程來介紹CNN,兩部分都會有理論和代碼。
  • 自動化所提出基於類腦脈衝神經網絡的音樂記憶與激活模型
    中國科學院自動化研究所類腦智能研究中心曾毅團隊充分借鑑了人類大腦在音樂信息處理方面的神經機制,構建了一個多尺度的多腦區協同的脈衝神經網絡SNN(Spiking Neural Network)模型,用於音樂感知與記憶。模型可以通過一首曲名從而回憶起整首樂曲,也可以只通過一個片段,回憶起整首曲目,甚至可以回憶樂曲的節奏與速度。
  • 從基本組件到結構創新,67頁論文解讀深度卷積神經網絡架構
    由於CNN既具有良好的特徵提取能力,又具有較強的辨別能力,因此在ML系統中,它主要用於特徵提取和分類。2、CNN基本組件典型的CNN體系結構通常包括卷積和池化層的交替,最後是一個或多個全連接層。在某些情況下,全連接層替換為全局平均池化層。