如今統治機器學習的深度神經網絡,也曾經歷過兩次低谷

2021-01-22 中關村在線

今天企業、碼農、風險資本、政府機構都伸長脖子望著人工智慧。

這個人工智慧機器學習領域已可開挖的黑金,千軍萬馬擠獨木橋的洪流,走向何處,他們真的知道嗎?

如今媒體大V們隨手甩出的「深度學習」的概念,不明覺厲的深度神經網絡(DNN)、卷積神經網絡(CNN)、深度置信網絡(DBN)、卷積深度置信網絡(CBDN),少有人知曉,它們都曾是無人問津的「屌絲」。

Yann Le Cun,一個需要被記住的名字


就像Leighton Stuart 因為被欽點、以及迎面而來的中國風名字「司徒雷登」,註定成為歷史教材中政治幼稚的註腳。一個拼寫有點漢味的法國人燕樂純(Yann Le Cun),在人工智慧領域,同樣也會寫進教材且成為「令人唏噓」的代表。因為他絕對忘不了2012年這個有著諸多轉折性事件的年份。

2012是神奇的,這一年,Hinton 教授和他的兩個研究生 Alex Krizhevsky、 Illya Sutskever 將以卷積神經網絡為基礎的深度學習框架運用到 ImageNet 大型圖像識別競賽上,獲得了空前的成功。


Hinton 教授就此在 AI 界封神。而將人工神經網絡演進到深度學習,並且是卷積神經網絡的第一個發明人和推廣者燕樂純,被遺忘在角落。

為什麼說一次競賽的勝利就成為了深度學習乃至 AI 的歷史轉折點?

因為 AI 能力的測試標杆,公認是在圖像識別和處理:

1981年諾貝爾醫學獎獲得者 David Hubel 和 Torsten Wiesel 發現人的視覺系統的信息處理是分級的:從視網膜(Retina)出發,經過低級的V1區提取邊緣特徵,到V2區的基本形狀或目標的局部,再到高層的整個目標(如判定為一張人臉),以及到更高層的PFC(前額葉皮層)進行分類判斷等。高層的特徵是低層特徵的組合,從低層到高層的特徵表達越來越抽象和概念化,也即越來越能表現語義或者意圖。

現在的深度神經網絡,就是受此啟發。

李飛飛點名推崇的重要人物 Jitendra Malik,這位伯克利教授, 把計算機視覺這個領域從圖像處理帶進了 AI。Jitendra 是最早一批看到了視覺本身在智能這個問題上的重要性——視覺是人類智能極其重要的部分。

但是 ImageNet 競賽,這個繼承了PASCAL VOC的人工智慧圖像識別的標杆,從2010年開始舉辦以來,深度學習並不是主流,而是另外一種機器學習辦法——支持向量機(SVM)的天下。

ImageNet 就相當於機器學習的華山論劍,所以,什麼武功最厲害?

2010年首次競賽第一名團隊,使用SVM方法構建的模型,識別分類的錯誤率為 28%。

2011年競賽的冠軍, 用類似SVM的Fisher Vector方法,構建模型的識別分類錯誤率為25.7%

而2012年競賽,Hinton教授的團隊,使用以卷積神經網絡為基礎的深度學習方案,他們訓練的模型面對15萬張測試圖像時,預測的頭五個類別的錯誤率只有 15.3%,而排名第二的日本團隊,使用的SVM方法構建的模型,相應的錯誤率則高達 26.2%.

如此驚人的成績,學術界轟動了。

更驚人的是,深度學習訓練的模型(2012年之後就成為主流),在2015年的競賽中部分類別圖像的識別率上甚至超過了人類(雖然只佔到所有圖片分類中的千分一)。

然後就是我們眾所周知的故事:2016年,以走棋網絡和估值網絡兩個卷積神經網絡為基礎,結合了蒙特卡洛樹搜索和強化學習兩種方法開發的人工智慧圍棋程序AlphaGo,4:1 擊敗了圍棋界的小李子——曾經的人類圍棋第一人李世石,震驚世界。

在此之前,人們普遍認為,計算機最少還要20年才能擊敗人類頂尖高手,因為圍棋是一種無法用計算機窮舉擊敗人類的遊戲,堪稱人類智慧最後的殿堂。

2017年,AlphaGo的升級版本Master更是在網絡快棋上大開殺戒,以60盤全勝的戰績挑落了所有排得上名號的人類圍棋高手。讓目前的圍棋第一人柯潔產生了絕望感。

一個機器學習的小門派最終成為了江湖泰鬥。眾人只記住了Hinton教授,在 SVM 熱潮中堅持研究神經網絡,經歷了20多年的門庭冷落,帶領弟子練就了絕世武功。但是燕樂純,則被稱為神經網絡闢荒的眾大佬之一。實際上這哥們完全是跟Hinton教授一樣,是「黑暗中舉著火炬的人」。

人工神經網絡的三次崛起和兩次低谷

回顧歷史,今天遍地開花的神經網絡,並不是最近才冒出來的新鮮玩意,而是名副其實的老古董。

深度學習所依附的神經網絡技術起源於上世紀50年代,那個時候還叫感知機(Perceptron)。在人工神經網絡領域中,感知機也被指為單層的人工神經網絡,儘管結構簡單,卻能夠學習並解決相當複雜的問題。

雖然最初被認為有著良好的發展潛能,但感知機最終被證明存在著嚴重的不可逾越的問題:它只能學習線性可分函數。連簡單的異或(XOR映射)等線性不可分問題,都無能為力。

1969年,Marvin Minsky出版的《Perceptrons》書,是一個歷史的轉折點,神經網絡第一次被打倒。Minsky的書最著名的觀點有幾個:

(1)單層感知機沒用,我們需要用MLPs(多層感知機,多層神經網絡的另一種說法)來代表簡單的非線性函數,比如XOR (異或)映射;

(2)世界上沒人有辦法將MLPs訓練得夠好。

簡而言之,要解決感知機(單層神經網絡)學習線性不可分函數的問題,就必須發展多層感知機,即中間包含一個隱層的兩層神經網絡。

但是當時,根本找不到運用在多層神經網絡上的有效算法。學術權威開啟了神經網絡的反右運動,悲觀主義開始蔓延。

從現在看,突破性的誤差反向傳播算法,即著名的BP算法,開啟訓練多層神經網絡的「鑰匙」,其實那個時候已經存在了。

冰凍十年中,儘管Paul Werbos在1974年的博士畢業論文中深刻分析了將BP算法運用於神經網絡方面的可能性,成為美國第一位提出可以將其用於神經網絡的研究人員,但是他沒有發表將BP算法用於神經網絡這方面的研究。因為這個圈子大體已經失去解決那些問題的信念。

這時候我們的燕樂純燕大俠上場了。80年代博士在學期間,他提出了神經網絡的反向傳播算法原型(當時他在Hinton的實驗室做博士後研究,Hinton是燕樂純的導師)。


眾人只知道,1986年BP算法開始流行開來,是因為Rumelhart、Hinton、Williams合著的《Learning representations by back-propagating errors》,真正的,David Parker 和燕樂純是事先發現這一研究進路的兩人。

1989年,燕大俠加入貝爾實驗室,他開始將1974年提出的標準反向傳播算法應用於深度神經網絡,這一網絡被用於手寫郵政編碼識別,儘管因為種種問題失敗。但是這一時期,燕大俠發明了真正可用的卷積神經網絡。

到90年代中期,貝爾實驗室商業化了一批基於卷積神經網絡的系統,用於識別銀行支票(印刷版和手寫版均可識別)。直到90年代末,其中一個系統識別了全美國大概10%到20%的支票。

燕大俠和其他人發展的神經網絡,正開始被熱捧的時候,他一生較勁的對象Vapnik(貝爾實驗室的同事)出現了。因為兩層神經網絡儘管解決了10年前困擾神經網絡界的線性不可分問題,但是多層神經網絡在實際發展中碰上了新的難題:

1.儘管使用了BP算法,一次神經網絡的訓練仍然耗時太久,因為當時沒有如今可以用於大規模並行計算的GPU。比如,燕大俠最早做的手寫郵政編碼識別系統,神經網路的訓練時間達到了3天,無法投入實際使用。

2.訓練優化存在局部最優解問題,即過擬合,也許這是機器學習的核心難題。簡要來說,過度擬合指的是對訓練數據有著過於好的識別效果,這時導至模型非常複雜。這樣的結果會導致對訓練數據有非常好的識別較果,而對真實樣本的識別效果非常差。

3.隨著添加越來越多的隱含層,反向傳播傳遞給較低層的信息會越來越少。即著名的梯度消失問題。由於信息向前反饋,不同層次間的梯度開始消失,對網絡中權重的影響也會變小,因而隱藏層的節點數需要調參,這使得使用不太方便,訓練的模型質量並不理想。

90年代中期,由Vapnik等人發明的支持向量機(Support Vector Machines,SVM)誕生,它同樣解決了線性不可分問題,但是對比神經網絡有全方位優勢:

1、高效,可以快速訓練;2、無需調參,沒有梯度消失問題;3、高效泛化,全局最優解,不存在過擬合問題。

幾乎全方位的碾壓。

SVM 迅速打敗多層神經網絡成為主流。後來一度發展到,只要你的論文中包含神經網絡相關的字眼,非常容易拒稿,學術界那時對神經網絡的態度可想而知。

這個事情連如今的谷歌老大都記得。2017年年初,謝爾蓋在達沃斯的一個對談環節上還回憶說,

「坦誠來說,我根本沒關注人工智慧」,「90 年代學習計算機科學的人都知道,人工智慧並不管用,人們嘗試過,他們試過各種神經網絡,沒有一個管用。」

神經網絡再次墮入黑暗。10年沉寂中,只有幾個學者仍然在堅持研究。比如一再提及的Hinton教授。

2006年,Hinton在《Science》和相關期刊上發表了論文,首次提出了「深度置信網絡」的概念。與傳統的訓練方式不同,深度信念網絡有一個「預訓練」(pre-training)的過程,它的作用是讓神經網絡權值找到一個接近最優解的值,之後再使用「微調」(fine-tuning)技術,即使用反向傳播算法或者其他算法作為調優的手段,來對整個網絡進行優化訓練。這兩個技術的運用大幅度提升了模型的性能,而且減少了訓練多層神經網絡的時間。他給多層神經網絡相關的學習方法賦予了一個新名詞——「深度學習」。

後面的故事我們都知道了,2012年Hinton的團隊用燕樂純賴以成名的卷積神經網絡,和自己在深度置信網絡的調優技術,碾壓了其他機器學習辦法。

至此,深度學習開始壟斷人工智慧的新聞報導,像Hinton、燕樂存和他們的學生搖滾明星一般受到追捧,慣於見風使舵的學者們也來了個180度大轉變,現在是沒有和深度學習沾上邊的文章很難發表了。

除了名,還有利,谷歌、Facebook、Twitter們不但把學術界人物挖了個遍,更是重金收購深度學習大佬們所創建的公司,坐了幾十年冷板凳的人忽然一夜之間身價暴漲財務自由。

令人唏噓的是,現在主導Facebook AI 實驗室的燕樂純,他不斷呼籲學術界對深度學習保持冷靜,批判深度學習的泡沫繁榮...

深度神經網絡「高效」和「搞笑」並存

嗯,深度學習變得如此有用,人工智慧正在蓬勃發展,很多人甚至開始談論人類社會「技術奇點」的到來...

下棋、圖像識別、自動駕駛、金融分析師...看似無所不能、比進化了數百萬年人類更有「智慧」的人工神經網絡,卻有人發現,它有一些比較「搞笑」的方面:

比如 Jeff Clune、Anh Nguyen、Jason Yosinski 訓練了一個用於識別物體的系統,該系統99.6%確信左圖是一隻海星,同樣99.6%確信右圖是只獵豹。


而另一個來自Google、Facebook、紐約大學和蒙特婁大學研究人員組成的團隊,開發的一個神經網絡系統,認為左圖是一隻狗,而右圖(僅在左圖的基礎上略微改變了像素)是一隻鴕鳥。

比較詭異的是,這種事情不是發生了一次兩次,而是穩定地出現。

「一個為某一模型生成的樣本,通常也會被其他模型錯誤歸類,即使它們有著完全不同的架構。」

「即使使用的是完全不同的數據集。」


左圖被神經網絡判定為熊貓。給它人為疊加上中圖所示微小的擾動(實際疊加權重只有0.7%),就獲得了右圖。在人類看來,左圖和右圖沒有區別;可是AI卻會以99.3%的置信度,一口咬定右圖是一隻長臂猿。

這些「錯誤」,不知道是神經網絡的缺陷,還是人類肉眼凡胎不識「真相」,目前這些錯誤被取了一個名字——「對抗樣本」。

結尾

梳理人工神經網絡的歷史,感知機—雙層神經網絡—多層神經網絡—深度學習,我們明顯可以看到這是怎樣一個曲折的軌跡。

過去神經網絡曾經被人棄之如敝履,未來就一定不會遭遇下一個低谷?我想,沒人敢打包票。

無論是目前過擬合、梯度消失的固疾,還是對抗樣本的問題,都說明以神經網絡為代表的機器學習目前還是非常「弱」的人工智慧。

而且有一家與DeepMind齊名的人工智慧公司 Vicrious ——吸引了Mark Zuckerberg、Elon Musk、Peter Thiel、Jeff Bezos 私人投資,專注於通用人工智慧的另類,他們的創始人 Scott Phoenix 曾說:

深度神經網絡(DNN)需要大量的訓練數據,不能很好地適用於新的任務或環境。

(註:有變數,最近DeepMind最近新論文,他們宣稱發明彈性權重鞏固算法讓 AI 擁有「記憶」,目前只能勝任特定領域一項任務的神經網絡,開始能夠習得「多項技能」)

此外深度學習往往側重於學習輸入感知與輸出動作之間的映射(如用於做分類決策或者是圍棋、Atari遊戲上的移動的決策),對大腦功能的模擬,太過單一

我們認為智能的本質是能夠學習一個所處在世界的心理模型(mental model ),然後能否在這個模型上進行模擬(所謂想像力)。

深度學習是一個黑盒,我們設定了規則、輸入了數據、訓練出一個數據處理模型,但是並不了解數據處理在內部究竟如何進行。

那些在輸入層、隱層、目標層之間連接的人工神經元發生的所有事情,目前根本無法知曉,所以也無法預測輸出的結果:「我們看著Master走出了驚世駭俗的落子,看著它表演,它卻不能告訴我們為什麼要走這裡。」

深度學習用大量的數據樣本才能訓練「泛化能力」,相比李世石,後者才是真正的天才——他用遠遠少於AlphaGo的訓練樣本,達到了接近AlphaGo的水平。

目前,人工神經網絡僅僅是模擬大腦皮層的一小部分運行方式,而且是跨過了「認識世界」、「認識智能的本質」 這個階段,直接到了「改變世界」。

基礎理論並不成熟的工程應用,其實有著極大的隱患。

【鈦媒體作者:楊青山,微信公眾號 "偽geek"】

更多精彩內容,關注鈦媒體微信號(ID:taimeiti),或者下載鈦媒體App

//news.zol.com.cn/632/6327901.html news.zol.com.cn true 中關村在線 //news.zol.com.cn/632/6327901.html report 10827 今天企業、碼農、風險資本、政府機構都伸長脖子望著人工智慧。這個人工智慧機器學習領域已可開挖的黑金,千軍萬馬擠獨木橋的洪流,走向何處,他們真的知道嗎?如今媒體大V們隨手甩出的「深度學習」的概念,不明覺厲的深度神經網絡(DNN)、卷積神經網絡(CNN)...

相關焦點

  • 【深度】機器學習進化史:從線性模型到神經網絡
    大約在2005年左右,神經網絡又開始捲土重來。神經網絡其實算是上世紀80年代的技術,一些人甚至認為它起源於上世紀60年代,得益於計算機視覺的技術的最新進展,讓(卷積)神經網絡的使用顯得卓有成效。事實上,神經網絡已經開始在其他應用上「大展宏圖」,包括自然語言處理和機器翻譯等領域。但是有一個問題:在所有提及的機器學習分布式模型中,神經網絡可能是最具挑戰性的。
  • 人工智慧、機器學習、神經網絡和深度學習之間是什麼樣的關係?
    但是大家在關注或研究人工智慧領域的時候,總是會遇到這樣的幾個關鍵詞:深度學習、機器學習、神經網絡。那他們之間到底是什麼樣的關係呢?本文引用地址:http://www.eepw.com.cn/article/201806/381185.htm  先說人工智慧,人工智慧是在1956年一個叫達特茅斯會議上提出的。
  • 機器學習算法盤點:人工神經網絡、深度學習
    機器學習算法盤點:人工神經網絡、深度學習 佚名 發表於 2016-08-01 16:26:33   機器學習無疑是當前數據分析領域的一個熱點內容。很多人在平時的工作中都或多或少會用到機器學習的算法。
  • 機器學習算法匯總:人工神經網絡、深度學習及其它
    算法類似性根據算法的功能和形式的類似性,我們可以把算法分類,比如說基於樹的算法,基於神經網絡的算法等等。當然,機器學習的範圍非常龐大,有些算法很難明確歸類到某一類。而對於有些分類來說,同一分類的算法可以針對不同類型的問題。這裡,我們儘量把常用的算法按照最容易理解的方式進行分類。
  • 人工智慧、機器學習、深度學習和神經網絡傻傻分不清?看這兒!
    人工智慧、機器學習、深度學習和神經網絡這些詞傻傻分不清?這四個都是非常熱門的詞彙,很多人甚至將四者看成是一種等價的關係,在很多報導中,會混雜使用。事實上,這四者之間既有一定的聯繫,但也有明顯的區別。可以簡單理解為:機器學習是人工智慧領域中的一個重要分支;深度學習是實現機器學習的一種重要方法;而深度學習通常都是基於多層神經網絡的。筆者之前畫了一張圖,比較形象一些。
  • 深度學習進入晶片領域,揭秘寒武紀神經網絡處理器
    陳雲霽(左)和陳天石(右)兄弟寒武紀神經網絡處理器廬山真面目目前,寒武紀系列已包含三種原型處理器結構:寒武紀1號(英文名DianNao,面向神經網絡的原型處理器結構);寒武紀2號(英文名DaDianNao,面向大規模神經網絡);寒武紀3號(英文名PuDianNao,面向多種機器學習算法)。
  • 神經網絡和深度學習簡史(全)
    讓我告訴你,說來話長——這不僅僅是一個有關神經網絡的故事,也不僅僅是一個有關一系列研究突破的故事,這些突破讓深度學習變得比「大型神經網絡」更加有趣,而是一個有關幾位不放棄的研究員如何熬過黑暗數十年,直至拯救神經網絡,實現深度學習夢想的故事。
  • 深度學習:神經網絡算法的昨天、今天和明天
    針對神經網絡輸出結果與真實結果之間的差異,神經網絡會通過梯度(Gradient)逐層調整相應的權重以縮小差異,從而達到深度學習的目的。二、深度學習的雛形其實,模擬動物的神經活動,並非深度學習的專利。早在1957年,Frank Rosenblatt就提出了感知機(Perceptron)的概念。這是一種只能分出兩類結果的單層神經網絡。
  • 神經網絡:高深莫測又妙趣橫生的完整歷史
    自上個世紀以來,神經網絡和人工智慧一直是熱門話題。在流行文化電影中,人工智慧機器人風靡全球,吸引著大量獵奇之士。 神經網絡的靈感來源於生物神經元是一種受編程範式啟發的模型,它使深度學習模型能夠在複雜的觀測數據集上有效地學習和訓練。
  • 盤點| 機器學習入門算法:從線性模型到神經網絡
    原標題:盤點 | 機器學習入門算法:從線性模型到神經網絡 選自Dataconomy 機器之心編譯 參與:王宇欣、吳攀、蔣思源 預測問題分為兩大類: 現在我們已經介紹了機器學習在預測方面的應用,我們可以討論機器學習算法,其分為 3 個組別:線性模型(linear models)、樹型模型(tree-based models)、和神經網絡(neural networks)。
  • 近年來深度神經網絡模型不斷迎來重大突破
    近年來深度神經網絡模型不斷迎來重大突破,由深度學習為代表的機器學習相關研究取得了長足進步。但對機器學習研究普及者和研究機構來說,由於對機器學習原理、應用實踐以及技術應用多方面的缺乏概念理解,這些機器學習技術發展存在顯著的「彎路」。
  • 3D列印出來的深度神經網絡,光速求解AI數學運算
    此外,固態光衍射計算還具有能耗小、無發熱、光速執行(儘管傳統計算機電路中的電場傳播也是光速的,但並未直接對應神經網絡的計算過程)等優點。該研究方向尚處於起步階段,如果能充分利用其優勢,也許會有很廣闊的應用前景。如今,機器學習無處不在,但多數機器學習系統是隱形的:它們在「黑箱」裡優化音頻或識別圖像中的人臉。但最近 UCLA 的研究人員研發出了一個 3D 列印 AI 分析系統。
  • 極簡機器學習課程:使用Python構建和訓練一個完整的人工神經網絡
    而本文介紹的系列視頻,將帶領大家使用Python構建和訓練一個完整的人工神經網絡。1.數據+架構要想使用一種機器學習的方法,我們首先需要數據。機器學習中有大量的模型,本文訓練的是當前特別火的人工神經網絡。Ps:把數據放進模型之前,我們需要考慮數據單位間的差異。2.正向傳播上一節我們建立了神經網絡,這次我們將用Python程式語言來實現它。
  • 人工智慧經歷兩次波谷之後將像水和電一樣無所不在
    人工智慧自1956年第一次提出來至今曾經歷過兩次低谷,都曾讓這一領域的研究者經歷不為人知的痛苦。 哈佛大學馬文·明斯基在1970年曾經非常興奮的宣告說未來3到8年計算機的智能就可以達到人類的平均水平。當時明斯基提出了一套人工智慧的算法語言,能夠證明第一代神經網絡到底能夠幹哪些事情,並用其證明了數學原理中的38項。
  • 金融領域裡的機器學習算法介紹:人工神經網絡
    人工智慧的發展在很大程度上是由神經網絡、深度學習和強化學習推動的。這些複雜的算法可以解決高度複雜的機器學習任務,如圖像分類、人臉識別、語音識別和自然語言處理等。這些複雜任務一般是非線性的,同時包含著大量的特徵輸入。我們下面我們將分幾天的時間對這些算法及其在金融領域的應用進行闡述。
  • 「神經網絡」的逆襲:圖解80年AI鬥爭史
    派系鬥爭與兩次AI危機早在達特茅斯會議之前,圖靈就提出過「圖靈機」這樣的人工智慧前沿概念。鬥爭之初的幾十年間,連接主義派的論文引用率一直領先對手。後來的事情,你們也知道了,深度學習終於又重新霸佔了學術和工業界。時間再回到當下,從2010年開始,機器學習成為AI行業主導。
  • 高清圖解:神經網絡、機器學習、數據科學一網打盡|附PDF
    來源:becominghuman.ai  編輯:元子  【新智元導讀】完全圖解人工智慧、NLP、機器學習、深度學習  今天,新智元要為大家推薦一個超實用、顏值超高的神經網絡+機器學習+數據科學和Python的完全圖解,文末附有高清PDF版連結,支持下載、列印,推薦大家可以做成滑鼠墊、桌布,或者印成手冊等隨手攜帶,隨時翻看。
  • 深度學習背後的基礎-神經網絡揭秘
    最近, 深度學習三傑獲得了計算機界最重要的圖靈獎, 它們的貢獻都集中在對深度學習的根據神經網絡的理論突破。 今天我們看到的所有和人工智慧有關的偉大成就, 從阿法狗到自動駕駛, 從海量人臉識別到對話機器人, 都可以歸功於人工神經網絡的迅速崛起。那麼對於不了解神經網絡的同學如何入門? 神經網絡的技術為什麼偉大, 又是什麼讓它們這麼多年才姍姍走來?
  • 3D 列印造出人工神經網絡,UCLA團隊實現全光學機器學習
    研究團隊首先提出了一種全光學的深度學習框架——衍射深度神經網絡(Diffractive Deep Neural Network,D2NN),該架構採用基於深度學習算法的無源衍射層(passive diffractive layers)設計,經誤差反向傳播法(error back-propagation method)訓練後,能夠以接近光速的高速處理能力,實現多種機器學習的複雜功能
  • 機器學習與深度學習有什麼區別?
    作為人工智慧的核心技術,機器學習和深度學習也變得越來越火。一時間,它們幾乎成為了每個人都在談論的話題。那麼,機器學習和深度學習到底是什麼,它們之間究竟有什麼不同呢? 什麼是機器學習?機器學習(Machine Learning,ML)是人工智慧的子領域,也是人工智慧的核心。它囊括了幾乎所有對世界影響最大的方法(包括深度學習)。