人工智慧系列(六) 深度學習中的神經網絡

2021-01-17 原力源

原力君在系列的第五篇《人工智慧系列(五) 深度學習簡介》中提到深度學習可以看作是一種更高級的函數擬合方法;人工神經網絡、激活函數、代價函數、梯度下降、反向傳播是深度學習的幾個關鍵點;常見的深度學習神經網絡結構有多層感知機、DNN、CNN、RNN等。從另一個角度看,不管是哪種網絡結構,其根本還是從傳統的神經網絡、多層感知機發展而來的。本篇聊聊神經網絡和多層感知機。

我們在上一篇中提到高中學過的線性擬合,線性回歸。神經網絡在深度學習中的作用,就類似於線性回歸方程y=ax+b的作用。從另一個角度看,線性回歸方程y=ax+b就是一個最簡單的神經網絡。在實際工程中,我們的研究對象可能比較複雜,很難用一個線性方程來表示其模型。值得高興的是,研究者已經證明了一個事實:人工神經網絡可以用來表徵任何形式的函數。

人工神經元是人工神經網絡的基礎

與人的大腦神經網絡類似,人工神經網絡的基礎是人工神經元。我們先介紹一種簡單的人工神經元:感知機。感知機,顧名思義就是用來感知輸入數據是否符合某一類特性或者是否屬於某一類物體的;它的輸出是0或1,其中0表示不屬於,1表示屬於);感知機的結構如圖所示。

感知機的輸出是輸入的分段線性函數,輸出的表達式如下:

可能有朋友會問:就這麼簡單一個東西,能用來搞深度學習嗎?哲學中有一句話說得好,那就是量變引起質變。我們看看,這麼一個簡單的感知器組合起來是什麼樣子:

所以說,不要小瞧一個簡單的東西。話不多說,我們繼續回到深度學習。我們希望的是能夠通過調整那些參數w1,w2,…,wn從而使得其output連續的變化,進而可以利用已知的輸入數據和輸出數據來優化這些參數,使得神經網絡可以更好地擬合輸入輸出數據的函數關係。但是感知器的output函數輸出只有兩個數,顯然是不連續的,參數的微調並不能帶來輸出的微量變化。

為了讓我們可以通過微調神經網絡的參數來擬合函數關係,實踐家們給出了一種更實用的人工神經元:sigmoid神經元。Sigmoid神經元與感知器的結構是一模一樣的,唯一不同的是output不再是一個分段函數,而變成了一個sigmoid連續函數。如下圖所示,它相當於把感知機的分段函數給用一個圓滑的曲線連續化了。

Sigmoid函數的表達式為

因此sigmoid神經元的輸出表達式為

上面的描述中,不管output是輸入的分段函數形式還是sigmoid函數形式,這些函數都稱為神經元的激活函數。

多層感知機、DNN、RNN與CNN

前面我們提到,無數個簡單的人工神經元可以組成一個複雜的神經網絡。在深度學習中,神經網絡的結構大概可以用上圖表示。圖中可以看到,神經網絡分為很多層。輸入端的網絡稱為輸入層,輸出端的網絡稱為輸出層,輸入層和輸出層中間的所有網絡都稱為隱藏層。隱藏層數目比較多的神經網絡,常常被稱為多層感知機;但是有時候隱藏層數非常多,而且為了應對層數增多帶來的梯度消失問題引入了新的激活函數(如ReLU、maxout等函數),人們常常用深度神經網絡(DNN)來表示這種網絡。

值得一提的是,我們提到的神經網絡的輸出都是只與輸入有關,相當於給定輸入和參數,就可以計算得到輸出,我們稱這樣的網絡為前饋神經網絡。有時候為了解決複雜的問題,神經網絡的輸出不僅僅與輸入有關,還與輸出有關。這樣相當於把輸出反饋到了神經網絡的輸入端,形成了一個反饋閉環,我們稱這樣的網絡為遞歸神經網絡(RNN)。

深度神經網絡DNN的網絡節點之間通常是全聯接的,隨著網絡層數的增加,需要優化的變量參數會出現深度爆炸。為了解決這個問題,深度學習中最著名的卷積神經網絡CNN,在原來多層神經網絡的基礎上,加入了特徵學習部分,這部分是模仿人腦對信號處理上的分級的。具體操作就是在原來的全連接的層前面加入了部分連接的卷積層與降維層,而且加入的是一個層級:輸入層 -卷積層 -降維層 -卷積層 - 降維層 -- .... -- 隱藏層 -輸出層。CNN大大減少了網絡參數的數量,CNN常見結構如下圖所示(不明覺厲,看看就好,還是啃啃專業資料才能懂):

一句話總結:人工神經網絡的基礎是人工神經元,常用的神經元激活函數為sigmoid,應對深度學習的激活函數為ReLU、maxout等函數;多層感知機與DNN結構一致,激活函數有區別;CNN可以用來解決DNN網絡參數太多的問題;RNN為帶有反饋的神經網絡。

相關焦點

  • 人工智慧、機器學習、神經網絡和深度學習之間是什麼樣的關係?
    ,深度學習之間的關係。神經網絡在之前有非常多的問題,層數無法深入過多,有太多的參數需要調節,樣本數據量過小等問題。總之,其之前是一門並不被看好的技術。直到2006年,Hinton在《Science》和相關期刊上發表了論文,首次提出了「深度信念網絡」的概念。  深度學習(DeepLearning)其實算是神經網絡的延伸,從概念被提出,逐漸的在人工智慧領域大顯身手。
  • 人工智慧、機器學習、深度學習和神經網絡傻傻分不清?看這兒!
    人工智慧、機器學習、深度學習和神經網絡這些詞傻傻分不清?這四個都是非常熱門的詞彙,很多人甚至將四者看成是一種等價的關係,在很多報導中,會混雜使用。事實上,這四者之間既有一定的聯繫,但也有明顯的區別。可以簡單理解為:機器學習是人工智慧領域中的一個重要分支;深度學習是實現機器學習的一種重要方法;而深度學習通常都是基於多層神經網絡的。筆者之前畫了一張圖,比較形象一些。
  • 【PPT下載】深度學習入門指南!六步構建深度神經網絡
    從上世紀五十年代計算機被發明開始,高效地利用各種各樣的工具去解決人類生活生產中的問題成為當時一個大的話題,到了1980年,利用計算機解決問題的方法被初步定義為機器學習,而機器學習有很多的學科,在設計時它是一個交叉的學科,涉及到概率論、統計學、算法複雜度理論等多門學科。深度學習是通過對人工神經網絡的研究,使得機器學習的操作和執行變得更完善、更高效。因此,深度學習是機器學習的一個分支。
  • 圖靈獎得主姚期智:深度學習、神經網絡、密碼學……人工智慧絕對是...
    7月9-11日,2020世界人工智慧大會雲端峰會在滬召開。本次大會共邀請到海內外近600位重磅嘉賓,涵蓋產學研用多個領域,包括7位圖靈獎得主、1位諾貝爾獎得主、39位院士在內的200多位專家學者以及國內外頂尖人工智慧企業領袖。
  • 人工智慧黑盒揭秘:深度神經網絡可視化技術
    >深度神經網絡(Deep Neural Network,DNN)作為當前人工智慧應用的首選模型,在圖像識別,語音識別,自然語言處理,計算生物,金融大數據等領域成效顯著。但深度神經網絡又被稱為「黑盒」模型,多層隱藏結構,數據 / 特徵矢量化,海量決策關鍵元等因素讓模型使用者犯難:模型決策的依據是什麼?應該相信模型麼?特別是對於金融,醫藥,生物等關鍵型任務,深度學習模型的弱解釋性成為人工智慧項目落地的最大障礙。
  • 神經網絡和深度學習簡史(全)
    但是,這種災難性的形容的確可以用來描述深度學習在過去幾年中的異軍突起——顯著改善人們對解決人工智慧最難問題方法的駕馭能力,吸引工業巨人(比如谷歌等)的大量投資,研究論文的指數式增長(以及機器學習的研究生生源上升)。在聽了數節機器學習課堂,甚至在本科研究中使用它以後,我不禁好奇:這個新的「深度學習」會不會是一個幻想,抑或上世紀80年代已經研發出來的「人工智慧神經網絡」擴大版?
  • 深度學習進入晶片領域,揭秘寒武紀神經網絡處理器
    陳雲霽(左)和陳天石(右)兄弟寒武紀神經網絡處理器廬山真面目目前,寒武紀系列已包含三種原型處理器結構:寒武紀1號(英文名DianNao,面向神經網絡的原型處理器結構);寒武紀2號(英文名DaDianNao,面向大規模神經網絡);寒武紀3號(英文名PuDianNao,面向多種機器學習算法)。
  • 深度學習:神經網絡算法的昨天、今天和明天
    原標題:深度學習:神經網絡算法的昨天、今天和明天2016年,圍棋人工智慧軟體AlphaGo打敗了韓國圍棋名將李世石。2017年,新一代AlphaGo(AlphaGo Master)的戰鬥力升級,又打敗了世界排名第一的柯潔。
  • 深度學習背後的基礎-神經網絡揭秘
    最近, 深度學習三傑獲得了計算機界最重要的圖靈獎, 它們的貢獻都集中在對深度學習的根據神經網絡的理論突破。 今天我們看到的所有和人工智慧有關的偉大成就, 從阿法狗到自動駕駛, 從海量人臉識別到對話機器人, 都可以歸功於人工神經網絡的迅速崛起。那麼對於不了解神經網絡的同學如何入門? 神經網絡的技術為什麼偉大, 又是什麼讓它們這麼多年才姍姍走來?
  • 人工智慧-深度學習-神經網絡結構MLP,CNN,RNN,LSTM
    人工神經網絡、激活函數、代價函數、梯度下降、反向傳播是深度學習的幾個關鍵點;常見的深度學習神經網絡結構有多層感知器MLP、CNN、RNN、LSTM等。Neural Networks 卷積神經網絡由具有可學習的權重和偏置常量(biases)的神經元組成。
  • 推薦| 九本不容錯過的深度學習和神經網絡書籍
    搭建你自己的神經網絡(Make Your Own Neural Network)價格:45 美元一步步讓你了解神經網絡的數學原理並用 Python 搭建自己的神經網絡。神經網絡是深度學習和人工智慧的關鍵元素。然而,幾乎很少有人真正了解神經網絡如何運作。本書從非常簡單的思想開始,讓你在趣味和從容不迫中,逐漸了解神經網絡的運作原理。2.
  • 人工智慧瓶頸之神經網絡的可解釋探討
    近年來,隨著深度學習,即深度神經網絡的迅速發展,神經網絡模型在自然語言處理、語音識別、計算機視覺等眾多領域獲得突破性進展,取得了令人矚目的成果。然而隨著深度學習技術在多個領域的大量應用,其背後隱藏的安全問題也隨之而來。特別是在醫學診斷、網絡安全、自動駕駛等對安全性有較高要求的領域,深度神經網絡所隱藏的安全風險限制了其自身在更多領域的應用和推廣,引起了政府、學術界及工業界的關注。
  • 人工智慧神經網絡你知道是什麼嗎
    打開APP 人工智慧神經網絡你知道是什麼嗎 企業新聞 發表於 2020-04-09 11:28:47 這個無需解釋太多,因為通過各種科幻電影我們已經對人工智慧很熟悉了。大家現在感興趣的應該是——如何實現人工智慧? 從1956年夏季首次提出「人工智慧」這一術語開始,科學家們嘗試了各種方法來實現它。這些方法包括專家系統,決策樹、歸納邏輯、聚類等等,但這些都是假智能。直到人工神經網絡技術的出現,才讓機器擁有了「真智能」。 為什麼說之前的方法都是假智能呢?
  • 前沿播報 | 新全光二極體、新型自旋閥結構、新型高效節能深度學習神經網絡、「神經網絡核磁共振成像」…
    新二極體能被用於微型光子電路中,有望為微納光子學晶片提供廉價高效的光二極體,從而對光子晶片和光子通信等領域產生重要影響。新二極體僅能在一個方向上傳輸光,且可集成到微納光子電路中,因此,克服了二極體需要大塊磁光晶體這一限制。
  • 機器學習算法盤點:人工神經網絡、深度學習
    機器學習算法盤點:人工神經網絡、深度學習 佚名 發表於 2016-08-01 16:26:33   機器學習無疑是當前數據分析領域的一個熱點內容。很多人在平時的工作中都或多或少會用到機器學習的算法。
  • 神經網絡與人工智慧應用
    工信部於2017年12月14日印發了《促進新一代人工智慧產業發展三年行動計劃(2018-2020年)》,明確以信息技術與製造技術深度融合為主線,以新一代人工智慧技術的產業化和集成應用為重點,推進人工智慧和製造業深度融合,加快製造強國和網絡強國建設。
  • 深度學習之卷積神經網絡經典模型
    隨著ReLU與dropout的提出,以及GPU帶來算力突破和網際網路時代大數據的爆發,卷積神經網絡帶來歷史的突破,AlexNet的提出讓深度學習走上人工智慧的最前端。與AlexNet網絡非常類似,VGG共有五個卷積層,並且每個卷積層之後都有一個池化層。當時在ImageNet大賽中,作者分別嘗試了六種網絡結構。這六種結構大致相同,只是層數不同,少則11層,多達19層。網絡結構的輸入是大小為224*224的RGB圖像,最終將分類結果輸出。當然,在輸入網絡時,圖片要進行預處理。
  • 深度學習技術和卷積神經網絡(CNN)讓機器視覺識別更智能
    隨著人工智慧技術的進步,深度學習技術(DL)和卷積神經網絡技術(CNN)領域的人工智慧(AI)被引入到機器視覺圖像處理系統的應用中來,從而幫助機器學習和機器檢測缺陷更加高效,使機器視覺識別的過程更加精確。也讓使用這些技術的企業可以從智能化中獲得更高的生產經營效益。
  • 「冪律與臨界」支配神經網絡,深度學習技術要向大腦學習
    導語近年來,怎樣讓深度學習的系統借鑑大腦的編碼機製成為了一個熱點問題。最近,研究人員從大腦的視覺神經網絡中發現了令人驚訝的臨界現象和冪律,這一發現對於深度學習系統的設計和穩定性分析都有重要的啟發。 我們可以用臨界點來刻畫人類的大腦活動:高活躍度還是低活躍度;密集網絡還是稀疏網絡;有序還是無序,這些不同狀態之間的分界線就是臨界點。現在,通過分析有史以來最大數目的神經元的放電模式,研究者發現了另外一個臨界點——這個臨界點表現在神經編碼中——傳入大腦的感覺信息和信息的腦神經表徵之間的數學關係。
  • 近年來深度神經網絡模型不斷迎來重大突破
    近年來深度神經網絡模型不斷迎來重大突破,由深度學習為代表的機器學習相關研究取得了長足進步。但對機器學習研究普及者和研究機構來說,由於對機器學習原理、應用實踐以及技術應用多方面的缺乏概念理解,這些機器學習技術發展存在顯著的「彎路」。