深度學習鼻祖Geoffrey Hinton幫你入門帶你飛

2020-12-11 雷鋒網

本文聯合編譯:Blake、高斐

雷鋒網註:Geoffrey Everest Hinton(傑弗裡·埃弗裡斯特·辛頓 )是一位英國出生的計算機學家和心理學家,以其在神經網絡方面的貢獻聞名。辛頓是反向傳播算法和對比散度算法的發明人之一,也是深度學習的積極推動者,目前任職於多倫多大學與Google。作為人工智慧領域的三位奠基人之一,早在30年前,辛頓就已經在深度學習領域留下了自己的烙印。然而,直到計算機的性能達到深度學習的要求,辛頓才開始在學術界以外得到自己應得的廣泛認可,本文是他對於深度學習介紹的演講PPT。

深度學習

Geoffrey Hinton

多倫多大學&Google

機器學習任務的頻譜

典型的統計學方法                         

人工智慧(AI)

深度學習簡要發展史

  • 用於學習多層非線性特徵的反向傳播算法於20世紀70年代和80年代被提出來並得到多次發展演變(Werbos, Amari, Parker, Lecun, Rumelhart et al)。

  • 當時,反向傳播算法具有廣闊的應用前景,然而,到20世紀90年代,機器學習領域的眾多研究者開始停止運用該算法,原因如下:

—該算法不能有效利用多數隱藏層(除了其在「時延」和卷積網的應用)。

—該算法不能在遞歸網絡中發揮有效作用。

如何學習多層特徵(~1985)

運用反向傳播錯誤信號以獲得用於學習的衍生工具:

首先輸入輸入信息向量,通過隱藏層,最終得到輸出結果,對比輸出結果與正確答案得到錯誤信號。

隨機梯度下降

—這將對所有訓練數據的梯度矢量進行隨機評估。

—若權重值完全出現錯誤,即便獲得一個耗費多,精確地估計值也是無意義的。

—與其他更好地方法相比,這種原始的優化方法能夠在大數據集中發揮更好的作用。

反向傳播算法到底是哪裡出錯了?——20世紀90年代的觀點

—  幾乎所有的數據都是未經標記的。

—  在存在眾多隱藏層的網絡中,該算法學習速度非常慢。

—  該算法通常能夠得到極好的運用,但是從來沒有極好的理論。

運用無監督學習方式,克服反向傳播算法的局限性

—  調整權重,保證一個生成模型生成感官輸入信息的最大可能性。

—  學習圖像,而非標記過的圖像。

      如果你想要從事計算機視覺領域的研究,首選學習計算機製圖法。

隨機二進位單位(一種奇數選擇方法)

 

受限玻爾茲曼機

—只有一層隨機二進位隱藏單元。

—隱藏層之間無連接。

— 當存在一個既定的數據矢量,我們能夠快速從後驗分布中獲取一個無偏差樣本。

受限玻爾茲曼機最大可能性學習算法圖

由可視單元的一個訓練矢量V開頭。

在更新所有平行隱藏單元與更新所有平行的可視單元之間轉換。

快速學習受限玻爾茲曼機的方法

由可視單元的一個訓練矢量開頭

更新所有平行的隱藏單元

更新所有平行的可視單元,以實現重構

再次更新隱藏單元

  

旁白

      這是受限玻爾茲曼機的首次重大應用。

訓練深度網絡(受限玻爾茲曼機飽受歡迎的主要原因在於的到蓋茨比基金的支持)

      如此便生成一個多層生成模型。

      這一證明過程是非常複雜的(但是對於學術界同仁之間相互尊重極為重要)。

精細調整,以實現區分這一目的

  • 預訓練:首先,一次只學習一個特徵層,不使用標記過的信息。

  • 精細調增:增添最後一個標記單元層,反向計算標記單元的誤差,以便精細調整那些在無監督前期訓練階段學會的特徵。

  • 這種精細調整方法能夠克服標準反向傳播算法的兩個主要局限性。

      因為未經標記數據而發現好的特徵,我們要求使用更少的標記。

      由於在預訓練過程中,一次僅訓練一層,並且是從可感知的特徵進行精細調整的,學習速度變得越來越快。

為預訓練深層神經網構建聲學模型

通過較短時間的前期處理,現在我們在這一塊兒能夠做的更好。

接下來會發生什麼

  • 當預訓練深層神經網絡的性能優於在MSR演講組一致推崇的高斯混合模型,IBM與Google對這類深層神經網絡實行進一步發展。

  • 直至2012年,安卓系統的聲音搜索功能便是運用一個基於深層神經網絡的聲學模型。

  • 現在所有起到領導作用的團隊均使用神經網絡,這一技術正在向性能越來越好的遞歸神經網絡發展。

圖像網的ILSVRC-2012競爭

       早期階段主要通過優化一些參數得到調整。

 

ILSVRC-2012競爭的錯誤率

  • 2015年深層卷積神經網                                                     5%

  • 多倫多大學(Krizhevsky等,2012)                               16%

  • 東京大學                                                                         26%

  • 牛津大學(Zisserman 等)                                                  27%

  • INRIA(法國國家科學院)與XRCE(歐洲施樂研究中心)      27%

  • 阿姆斯特丹大學                                                               29%

針對Imagenet的神經網絡

l  7個隱藏層(不包括最大池化層)

l  早期的層級是卷積的

l  最後兩層是全局相連的

  • 激活函數是每個隱層的修正線性單元

    這些訓練速度快得多,且比邏輯單元要更具表現力

  • 全局連接層擁有最多的參數

      Dropout用來防止這些層級過擬合

 

在測試集上的樣本(以及神經網絡猜測結果)

獵豹(豹 雪豹 埃及貓)

高速列車(小轎車 地鐵 電車)

放大鏡(剪刀、放大鏡、煎鍋、聽診器)

 

修正線性單元

y = max(0,x)

這種非線性使得深度網絡更易訓練,在處理真實值的時候也表現的更好。

 

Dropout:平均多個大型神經網絡的有效方式

所有的架構權重相同

 

Dropout作為一種模型平均形式

這比試著將權重保持在較少狀態更能實現好的正則化

 

在測試的時候我們做些什麼?

  • 我們能對許多不同的架構進行取樣,然後在它們的輸出分布中取幾何平均數。

  • 能用上所有的隱藏單元更好,但是要將它們的輸入權重減半

     這恰好計算了所有2^H模型預測的幾何平均數

  • 在有更多的隱層的情況下,測試時期將權重減半是唯一一種模型平均的近似值,但是它得到結果不錯

 

1986年提出的方向傳播算法哪裡錯了?

關於它為什麼失敗,我們得出的結論都錯了。真正的原因是:

1. 我們的標記數據集太小了。(幾千倍的差異)

2. 我們的運算能力太慢了。(百萬倍的差異)

3. 我們進行權重初始化的方式錯了。

4. 我們使用了錯誤的非線性類別。

幾年前,Jeff Dean認為如果計算能力足夠的話,神經網絡也許能夠做到一些非常了不起的事情。

他建立許多架構讓一些大型神經網絡在Google的數據中心核心區塊上進行訓練。

 

卷積神經網絡(部分複雜細節已略去)

有關卷積網絡最好的類型可以去查看Hochreiter和Schmidhuber於1997年發布文章的細節。

 

卷積神經網絡

卷積神經網絡十分強大,因為它們結合了兩種特性。

l  分布式隱層允許它們有效存儲之前的信息

l  非線性動態允許它們以複雜的方式更新隱層

l  深度越深,性能更好

 

機器翻譯的一種全新方式(Suskever, Vinyals和Le,2014)

它最終的隱層表示的就是語句所要表達的含義。

 

針對翻譯分布的一個解碼器RNN

      在訓練期間,我們只需要輸入「正確」的單詞。

 

編碼器和解碼器網絡是如何訓練的

該系統已實現在該數據上的最佳水準

該系統大約需要一年來開發

如果我們使用更多的數據,並且同時對多種語言共同進行訓練編碼器和解碼器的話,它的表現會好的多

歐洲的議會給出了25種方式,我們可以通過所有的25中解碼器進行反向傳播。

 

結合視覺和語言(Vinyals等近期工作的簡單介紹)

使用一個擁有20萬張圖片(每張圖片有幾個注釋)的數據集

不再重複訓練卷積神經網絡

 

一群人在一個戶外市場購物

(人們蜷縮圍繞著一家開放市場)

 

一個抱著填充動物玩具的孩子特寫

(一個小女孩睡在沙發上,抱著一個玩具熊)

 

文本處理的意義

這將捕獲自然推理過程

它應該能讓我們理解文本要表達的含義

 

經典AI的意義

他們認為沒有其他的可能性

他們認為沒有其他的可能性

唯一的符號是輸入和輸出

處理像素陣列絕對不是通過操作內部像素來實現的

 

深度學習是從哪裡來的?

公司擅長於開發新的想法理念

長遠來看,好的想法理念卻是真正的瓶頸

因此給予大學基礎結構來發展真正的想法理念

PS : 本文由雷鋒網(公眾號:雷鋒網)編譯,未經許可拒絕轉載!

via Geoffrey Hinton

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 「AI教父」Geoffrey Hinton:GPT-3遠不如人類大腦
    在第四屆 ImageNet 大賽上,幾乎每支團隊都用上了深度學習技術,並且達到了驚人的準確率。不久之後,深度學習不僅在圖像識別任務中得到了應用,還被廣泛地應用於其它領域。30 年前,人們都覺得提出的神經網絡的想法是離經叛道。但辛頓表示,現在幾乎所有人都認同了他的想法。
  • Geoffrey Hinton:從神經網絡的黑暗時代堅守至今日黎明
    選自The Globe and Mail作者:Jeff Gary機器之心編譯參與:吳攀、黃小天、Ellen Han深度學習泰鬥 Geoffrey Hinton 的名字在當今的人工智慧研究界可謂是如雷貫耳,他曾發明了玻爾茲曼機(Boltzmann machine),也首先將反向傳播(Backpropagation)應用於多層神經網絡;不僅如此,他還有 Yann
  • 神經網絡之父Geoffrey Hinton傑弗裡·欣頓 跨過人工智慧寒冬談深度學習
    欣頓(Geoffrey Everest Hinton),是1947年12月6日英國出生的加拿大認知心理學家和計算機科學家,愛丁堡大學人工智慧博士,目前是多倫多大學特聘教授,以他的人工神經網絡(artificial neural networks)而出名,被稱為「神經網絡之父」、「深度學習鼻祖
  • 深度學習之父Geoffrey Hinton:AI寒冬不會出現
    在公眾號後臺回復「Hinton」獲取深度學習之父Geoffrey Hinton的AI論文。
  • 專訪深度學習之父Geoffrey Hinton:人工智慧的向量之舞
    對於人工智慧的未來,MIT的記者James Somers專訪了深度學習之父Geoffrey Hinton。對於當下全球範圍內圍繞深度學習動員的嘗試,向量學院在某種程度上可以說是從頭開始:在AI技術,訓練模型,優化和實際應用它。數據中心在搭建中,塔樓裡全是初創公司,學生們正步入「戰場「。站在向量學院課堂上,只有空曠和回聲,這裡很快就會被填滿,你正處於某個裡程碑的中心。深度學習的特別之處在於,它的邏輯方式是那麼的「老」。
  • python深度學習---帶你從入門到精通
    深度學習在搜索技術,數據挖掘,機器學習,機器翻譯,自然語言處理,多媒體學習,語音,推薦和個性化技術,以及其他相關領域都取得了很多成果。深度學習使機器模仿視聽和思考等人類的活動,解決了很多複雜的模式識別難題,使得人工智慧相關技術取得了很大進步。
  • 人物 | Geoffrey Hinton的成功之路:從神經網絡黑暗時代的堅守到今天的勝利
    選自The Globe and Mail作者:Jeff Gary機器之心編譯參與:吳攀、黃小天、Ellen Han深度學習泰鬥後重回物理,但覺得其中數學太難,轉學習哲學。學習一年後,G 對哲學充滿了抗體,只好修心理學。後確認心理學家對人類意識也是毫無頭緒,這才轉到愛丁堡學習 AI。」以下是機器之心對原文的編譯介紹。
  • 深度學習全網最全學習資料匯總之入門篇
    面對如此重要的江湖地位,我們相信一定有為數眾多的 AI 開發者對深度學習技術充滿了好奇心,想要快速著手使用這項強大的技術來解決現實生活中的實際問題。因此,雷鋒網(公眾號:雷鋒網)將圍繞深度學習技術整理一個系列文章,全面覆蓋與其相關的各項知識點。本文針對如何入門深度學習這一話題,整理了若干參考資料,希望對廣大開發者有所裨益。
  • 不堆砌公式,用最直觀的方式帶你入門深度學習
    本文是一篇關於深度學習入門的技術分享,不想堆砌公式,讓大家聽得一頭霧水不知不覺摸褲兜掏手機刷知乎。
  • 【Geoffrey Hinton傳奇】你我都是機器人
    過去十年,多倫多經歷了一場人才外流,矽谷吞併了當地初創企業,多倫多大學的深度學習社區面臨著是否保留的問題。據報導,人工智慧專家,甚至是矽谷新手和最近的畢業生,每年可以獲得30萬美元到50萬美元的報酬。股票期權可以超過百萬大關。 多倫多必須弄清楚如何利用Hinton的存在吸引深度學習專家隊伍留下或回到他們開始的地方。
  • Yoshua Bengio, Yann LeCun, Geoffrey Hinton 獲 2018 年圖靈獎
    Bengio 教授憑《Learning Deep Architectures for AI》、《A neural probabilistic language model》兩篇經典之作在內的 300 多篇論文,對深度學習的發展起到了巨大的推動作用,他與 Geoff Hinton、Yann LeCun 兩位一起造就了 2006 年始的深度學習復興,並稱深度學習三巨頭。
  • 教你如何正確入門深度學習
    這段時間,很多人都在自我充電,我也經常在後臺給讀者解答很多深度學習相關問題,發現大家都是剛入門且問的更多的都是一些非常基礎的問題。如果你也還迷失在我該怎麼學深度學習,或者想轉行AI,那麼可以看看下面這門課,花9.9學些理論和實踐我想還是值得的!
  • 深度學習教父Geoffrey Hinton的「膠囊」論文公開,帶你讀懂它
    就在幾個小時之前,由 Hinton 和其在谷歌大腦的同事 Sara Sabour、Nicholas Frosst 合作的 NIPS 2017 論文《Dynamic Routing Between Capsules》已經正式對外公開,解釋了不同 Capsules (膠囊)間路由的學習
  • 深度學習入門有多難?這篇帶你零基礎入行
    至於現在深度學習有多麼熱門,我就不強調了,總之你能想像到的領域,在未來都可能應用到深度學習,非常值錢。
  • 深度學習(Deep Learning) 學習資料
  • 邊玩邊入門深度學習,我們幫你找了10個簡易應用demo
    別怕,我們為你找了10個應用到前沿深度學習技術的簡易demo。一起來試試!語音識別、圖像識別、作曲作畫,甚至是幫你玩遊戲。這些深度學習「diao炸天」的應用相信對你來說早已經不陌生了。既然深度學習這麼神通廣大,就讓我們一起開心地學習深度學習吧!
  • 被吳恩達新開的深度學習課程刷屏?我們幫你做測評
    原標題:被吳恩達新開的深度學習課程刷屏?我們幫你做測評 先幫大家看看,到底這門課適不適合你。參加過學習的同學反饋對於入門者非常有效,因為真的可以聽懂,但是因為內容相對比較淺,如果想真正理解深度學習,以下的課程可能更加有效:
  • 入門深度學習,讀對書很重要
    在過去的一年多時間裡,研究人員奮筆疾書,競相出版專著,以滿足讀者對深度學習知識的渴求。第一本關於深度學習的書已經上架,更多的將會在夏天或者明年年初陸續上架。我有幸提前拜讀了若干專著的初稿,這些書的最終出版讓人期待萬分。接下來給大家推薦一些深度學習書籍,這些書可以引導大家如何學習人工智慧,對深度學習的快速理解有很大幫助。
  • 7本必看入門深度學習書籍
    對於入門深度學習的書籍,計算機視覺專家 Adrian Rosebrock 最近寫了篇非常實用的書單,給深度學習新手推薦了7本書籍,
  • 深度學習入門
    那麼深度學習到底是什麼,其與傳統的機器學習之間又有什麼樣的關聯。對於想入坑深度學習的同學,又該從哪些方面入手。這就是本文要回答的問題。深度學習的提出       先從深度學習的提出開始說起,深度學習的概念是由Hinton在2006年提出,他當時首次提出了深度信念網絡(DBN),相比之前,他採用無監督方式逐層訓練深層網絡,在深層網絡訓練中取得了跨越式的進展。