深度學習之父Geoffrey Hinton:AI實為反向傳播,計算機與生物結合可...

2021-01-17 獵雲網

【獵雲網(微信號:ilieyun)】11月22日報導 (編譯: Shane)

編者註:本文作者為James Somers,外媒科技專欄作家。

在AI領域,幾乎每個人們所熟知的技術革新都仰仗於三十年前出現的突破性理論。想要跟進AI技術的發展步伐,人們必須考慮由此帶來的嚴重局限性。那本突破性的著作出版於20世紀80年代中期,闡述了建立多層次神經網絡的方法,為之後十年AI的發展奠定了基礎。

站在我身邊的Jordan Jacobs是我們所處的Vector 人工智慧研究院的創建人,這間研究院今年秋天剛剛開幕,旨在成為全球人工智慧的技術中心。

Jacobs透露,之所以將研究所建在多倫多是因為「深度學習之父」——Geoffrey Hinton也在此地,他是AI浪潮翻湧之下的技術靠山。「回顧過去的30年時間,Geoff可以稱之為深度學習,也就是我們所認為AI領域的愛因斯坦。在AI領域的頂尖人才中,Hinton一人貢獻的可引用文獻數比位列他其後三人的總和還要多。他門下的學生和博士後遍布蘋果、Facebook和OpenAI等大公司的AI實驗室; Hinton自己是Google Brain AI團隊的首席科學家。事實上,AI的最近十年幾乎每一個成就——翻譯、語音識別、圖像識別和遊戲在某種程度上都要歸功於Hinton的工作。

VectorAI研究所是Hinton理論的結晶,許多來自美國和加拿大的公司,如谷歌、Uber和Nvidia將作為贊助方為AI技術的商業化做出努力。不用Jacobs開口,資金便源源不斷地湧入進來。研究所的兩位共同創始人在多倫多地區對公司開展調查表明,現在AI專家的需求量是加拿大每年能夠培養數量的10倍。Vector研究所在這場深度學習的全球熱潮中,從一定意義上來說剛剛起步:深度學習技術需要先注入資金,然後進行訓練、改進和應用。研究所的數據中心正在建設,初創公司紛紛進駐,新一代的學生開始走上這一舞臺。

深入學習技術的特殊之處就在於它的中心思想年代已久。 Hinton與其同事David Rumelhart和Ronald Williams一起於1986年出版了一篇突破性文章。該文章詳細闡述了一種被稱為「反向傳播」的技術。普林斯頓的計算心理學家Jon Cohen認為反向傳播是「深度學習的根基,幾乎一切都與之相關」。

總結一下,現在人們所說的AI即為深度學習,而深度學習實際上就是反向傳播,這一點很神奇,因為反向傳播已經有了30年的歷史。值得人們深思的一點便在於,這樣一門技術如何在蟄伏這麼久後製造了這一番巨浪。在了解了反向傳播的發展歷史後,也許我們會開始看清AI目前的局勢,特別是開始意識到我們已經走到了一場技術革命的盡頭,並非之前所認為的開端。

AI的反向傳播

多倫多是繼墨西哥城、紐約和洛杉磯之後的北美第四大城市,而其多樣化程度則可稱為北美之最:多倫多一半以上的人口出生於加拿大境外。來看科技展覽的人們並不都是穿著連帽衫的年輕白人,相反,而是各色人種都摻雜其中。免費的醫療保健服務、良好的公立學校、友好的國民,相對穩定的政治秩序等吸引了像Hinton這樣的人。

Hinton今年69歲高齡,高挺的鼻梁、薄薄的嘴唇、厚厚的耳朵構成了一張寬厚的英國臉龐。他出生於英國溫布爾登,他說話的神情好似在講一本關於科學的兒童書:口吻裡充滿好奇、吸引力與解釋新鮮事物的渴望。

在20世紀80年代,Hinton就已經是神經網絡領域的專家了,那時的神經網絡是簡化過的大腦神經元與突觸網絡模型。然而,當時人們堅持認為神經網絡是AI研究的死胡同,雖然最早的神經網絡——開發於在20世紀60年代的感知器被譽為達到人類水平的機器智能第一步。1969年由麻省理工學院的Marvin Minsky和Seymour Papert發表的《感知器》在數學上證明了這樣神經的網絡可執行最基本的功能。

這種神經網絡只有兩層神經元,分別為輸入層和輸出層。在輸入和輸出神經元之間存在很多層的神經元,理論上可以解決各種各樣的問題,但沒有人知道如何訓練這些神經元層,所以放到實踐中沒有任何用處。除了像Hinton這樣的幾個堅持的學者之外,《感知器》令大多數人望洋興嘆,完全放棄了神經網絡。

Hinton的理論在1986年迎來突破,他表明反向傳播可以訓練深層次的神經網絡,意味著建立超過兩三層的神經網絡成為可能。但是由於計算能力有限,Hinton和他的兩位多倫多學生又花了26年在2012年發論文表明,使用反向傳播訓練的深層神經網絡在圖像識別中擊敗了最先進的系統。 「深度學習」技術一時聲名大噪。對於外界來說,AI似乎是一夜夢醒,而對於Hinton來說,這是一份遲到太久的黎明。

AI的「現實主義」

人們常用三明治來描述神經網絡,一層一層疊在一起。這些神經層包含人造神經元,這是可激發興奮的最小計算單位,興奮激發的方式與真正的神經元相同,並可將這種興奮傳遞給所連接的其他神經元。神經元的興奮程度由數字表示,如0.13或32.39。

而另外一個關鍵的數字則在於兩個神經元之間的連接,表示從其中一個神經元到傳遞了多少興奮到另一個。這個數字是為了模擬大腦神經元之間突觸的強度。當數字較大時,意味著連接更強,所以更多的興奮流向對面的神經元。

圖:Hinton、David Rumelhart和Ronald Williams關於「錯誤傳播」的開創性圖表。

深層神經網絡最成功的應用之一圖像識別,就像美國家庭影院一部關於矽谷劇作的難忘一幕中一樣,劇中團隊寫出一個程序,可以判斷圖片中是否有熱狗。這樣的程序實際上真的存在,能在十年前就實現實在不可思議。運行該程序的第一步是先打開一張圖片。比如說,簡單起見,打開一張黑白的小圖像,寬和高都為100像素,設置輸入層中每個模擬神經元的興奮度,使其與每個像素的亮度相符,將圖像輸入神經網絡。這是「神經網絡」三明治的最底層:10000個神經元(100x100),代表圖像中每個像素的亮度。

然後將這一層神經元連接到上面的另一神經元層上(可能包含幾千個神經元),然後再和另一神經元層相連,又是幾千個神經元,依此類推。最後,在「三明治」的最上層也就是輸出層,只有兩個神經元——一個代表「熱狗」,另一個代表「不是熱狗」。重點在於訓練神經網絡,在圖片中有熱狗時激發屬於「熱狗」的神經元,沒有時激發「不是熱狗」神經元。 Hinton傾盡半生致力研究的反向傳播就是實現這些的方法。

反向傳播儘管在處理大量數據時效果最好,實際原理卻非常簡單。這就是為什麼大數據在AI中如此重要——也就解釋了為什麼Facebook和Google對用戶數據如饑似渴,為什麼VectorAI研究所決定在加拿大四家最大的醫院之間的街區設立商店,並與它們建立數據合作關係。

在這種情況下,數據以數百萬張圖片的形式輸入,有些上面有熱狗,有些則沒有。訣竅在於這些有熱狗的照片要進行標記。第一次創建神經網絡時,神經元之間的連接可能具有隨機權重——也就是隨機數,比如每個連接所能傳遞的興奮程度。就像模仿還沒反應過來的大腦突觸。 反向傳播的目標是改變這些權重,使神經網絡起作用:將熱狗的圖像傳遞到最底層,最終讓最頂層的「熱狗」神經元變得興奮起來。

神經網絡可以看做是把圖像、文字、錄音、醫學數據 等轉入為數學家稱之為的高維向量空間,在此空間中事物之間的距離或者接近程度反映了其在實際中的一些重要特徵。 Hinton認為這是大腦本質所做的工作。

他說:「如果你想了解一個人的思想,我們可以用一串詞語來將其描述出來。我可以說『約翰想,糟糕。』」但是,如果你問『約翰的想法是什麼?約翰有這個想法是什麼意思?』這並不表示約翰的腦海裡有個引號,引號裡是『糟糕』二字,甚至是連引號也沒有,這表明他的頭腦裡面有大規模的神經活動。」對於數學家而言,大規模地神經活動可以在一個向量空間中捕獲,每個神經元的活動對應一個數字,每個數字代表一個很大矢量的坐標。在Hinton看來,這就是思想——許多向量的交織。

未來AI的發展方向

深度學習在某種程度上模仿了人類大腦的活動,但只是以一種更為淺顯的方式——這也許解釋了為什麼有時人工智慧並不那麼「智能」。 事實上,反向傳播模式並非通過深入探索大腦,解讀思想本身而發現的,它源自於經典條件反射實驗中動物通過試錯法學習的模式。反向傳播技術發展中的大部分關鍵步驟並不涉及神經科學的新見解,而是得益於數學和工程領域多年來的技術改進。 我們對大腦的了解程度與其未知的廣泛性並不衝突。

但是當偉大的突破一個接著一個,外界很難理解的一點是,AI的最新進展與其是科學的進步,不如說是工程科學的突破。 雖然我們已經開始探索如何改善深度學習系統,但關注點很大程度上仍在於系統如何工作,以及是否可以達到人腦的強度。

值得人們思考的問題是,我們是否已經將反向傳播理論利用透徹。如果是的話,這是否意味著AI已經達到了發展的平臺期。

因此如果想要期待下一個突破的來臨,並以此突破性理論為依託,可以製造具有更靈活智能的機器,我們應該參考一下八十年代反向傳播理論剛剛出現的研究文獻:聰明的人們早已將行不通的想法一一排除。

要訓練一個人工智慧系統認出有熱狗的圖片,要輸入4000萬張熱狗的圖片。人們有時會擔心有一天電腦會搶走人類的工作,這有點杞人憂天,因為電腦無法代替律師的原因並不在於律師所做的工作有多麼複雜,而是因為律師會與客戶交談,閱讀資料。電腦代替人腦的那一天還遙遙無期。

對於Hinton而言,他相信,克服AI的局限性是建立「計算機科學與生物學之間的橋梁」。這種觀點認為反向傳播是一種生物啟發式計算的勝利,這個想法最初是來源於心理學而非工程學,所以現在,Hinton正努力將此為他所用。

現在的神經網絡是由大規模神經元平面層組成的,但是在人類新皮層中,真正的神經元不僅僅水平分布為層,還有垂直排列。 Hinton表示他知道這些垂直排列的意義,例如,在視覺識別過程中,即使我們的視點位置改變,也能保證我們識別對象的能力。所以他正試圖建立一種「膠囊」模型來測試這個理論。到目前為止還沒什麼大的進展。神經網絡的表現並沒有因「膠囊」模型得到顯著提高。但是,他在研究「反向傳播」的近30年來也是這樣過來的。

他說:「這件事肯定是正確的,」他談到膠囊理論,自嘲著自己莽撞的勇氣。 「現在行不通只是暫時的。」

1、獵雲網原創文章未經授權轉載必究,如需轉載請聯繫官方微信號進行授權。

2、轉載時須在文章頭部明確註明出處、保留官方微信、作者和原文超連結。如轉自獵雲網(微信號:

ilieyun

)字樣。

3、獵雲網報導中所涉及的融資金額均由創業公司提供,僅供參考,獵雲網不對真實性背書。

相關焦點

  • 深度學習鼻祖Geoffrey Hinton幫你入門帶你飛
    辛頓是反向傳播算法和對比散度算法的發明人之一,也是深度學習的積極推動者,目前任職於多倫多大學與Google。作為人工智慧領域的三位奠基人之一,早在30年前,辛頓就已經在深度學習領域留下了自己的烙印。然而,直到計算機的性能達到深度學習的要求,辛頓才開始在學術界以外得到自己應得的廣泛認可,本文是他對於深度學習介紹的演講PPT。
  • 「反向傳播非你原創」,Jürgen發文直指Hinton不應獲2019本田獎
    機器之心報導參與:魔王、蛋醬、杜偉LSTM 之父 Jürgen Schmidhuber 再次掀起爭論,這回他指向了深度學習之父、圖靈獎得主 Geoffrey Hinton。不過,這次他站出來質疑的是 Hinton 的最新獎項——本田獎。
  • 用反向傳播算法解釋大腦學習過程?Hinton 等人新研究登上 Nature...
    而反向傳播算法在深度神經網絡中解決了上述問題,不過長期以來人們一直認為反向傳播在生物層面上存在問題。儘管如此,神經科學的最新發展和神經網絡的成功激活了人們對反向傳播能否幫助進一步了解皮層學習的興趣。反向傳播算法使用反向連接(feedback connection)傳遞誤差信號,來計算突觸更新,從而實現快速學習。
  • LSTM之父炮轟Hinton:「本田獎」不該授予他,頒獎詞有六大謬誤
    上次他和GAN之父Goodfellow的論戰也是這個主題,總之萬物基於LSTM。細數本田獎「六宗罪」Schmidhuber在這篇長文中指出,AI中的一些重要技術,比如反向傳播、無監督算法、Dropout等等都並非Hinton的首創。
  • 圖靈獎「擁抱」深度學習
    ACM(國際計算機協會)在美國當地時間 3 月 27 日公布了 2018 年圖靈獎的授予結果。ACM 將本屆圖靈獎頒給了深度學習領域,並且讚譽三位獲獎人為「深度學習之父」。Pancake 說,「人工智慧的發展很大程度上歸功於由三位奠定基礎的深度學習領域內的最新成就。」「只要口袋裡有智慧型手機的人都可以切實體會到自然語言處理和計算機視覺方面的技術進步,這在十年前是無法想像的。除了我們每天使用的產品,深度學習的新進展為科學家們帶來強大的新工具—從醫學、天文學到材料科學。」神經網絡是一種運算模型,由大量簡單的神經元之間相互連接構成。
  • 用反向傳播算法解釋大腦學習過程?Hinton等人新研究登Nature子刊
    加拿大 CIFAR 人工智慧主席、麥吉爾大學生物工程系教授 Danilo Bzdok 轉發了該研究。在學習過程中,大腦會調整突觸以優化行為。在皮層中,突觸嵌入在多層網絡中,這導致我們難以確定單個突觸的調整對整個系統行為的影響。而反向傳播算法在深度神經網絡中解決了上述問題,不過長期以來人們一直認為反向傳播在生物層面上存在問題。
  • 從「神經網絡之父」到「人工智慧教父」|Geoffrey Hinton的傳奇...
    本文主要圍繞「神經網絡之父」Geoffrey Hinton。    Geoffrey Hinton,被稱為「神經網絡之父」、「深度學習鼻祖」,他曾獲得愛丁堡大學人工智慧的博士學位,並且為多倫多大學的特聘教授。在2012年,Hinton還獲得了加拿大基廉獎(Killam Prizes,有「加拿大諾貝爾獎」之稱的國家最高科學獎)。
  • 深度學習之父Hinton備受矚目的Capsule論文今正式公布
    (《麻省理工科技評論》中英文版APP現已上線,年度訂閱用戶每周直播科技英語講堂,還有科技英語學習社區哦~)在人工智慧學界,Geoffrey Hinton擁有非常崇高的地位,甚至被譽為該領域的愛因斯坦。作為「深度學習」之父,也正是這個技術讓人工智慧發展到今天這般炙手可熱。
  • 離散優化代替反向傳播:Pedro Domingos提出深度學習新方向
    Friesen & Pedro Domingos機器之心編譯在改革深度學習、拋棄反向傳播的道路上我們不僅看到了 Geoffrey Hinton 的努力。近日,《終極算法》一書作者,華盛頓大學計算機科學教授 Pedro Domingos 也提出了自己的方法——離散優化。神經分類的原始方法是學習單層模型,比如感知機(Rosenblatt, 1958)。
  • 一文讀懂深度學習中的矩陣微積分,fast.ai創始人&ANTLR之父出品
    這位ANTLR之父和fast.ai創始人Jeremy Howard一起推出了一篇免費教程,旨在幫你快速入門深度學習中的矩陣微積分。簡明,易懂。DeepMind研究科學家Andrew Trask評價說:如果你想跳過不相干的內容,一文看盡深度學習中所需的數學知識,那麼就是這份資源沒錯了。只需一點關於微積分和神經網絡的基礎知識,就能單刀直入,開始以下的學習啦。
  • ACM 宣布三位深度學習之父共同獲得 2018 年圖靈獎
    2018年圖靈獎獲得者從左到右:Yann LeCun, Geoff Hinton 和 Yoshua BengioHinton、LeCun 和 Bengio 獨立工作,共同開發了深度學習神經網絡領域的概念基礎,通過實驗和實際工程證明了深度神經網絡的優勢
  • 反思深度學習與傳統計算機視覺的關係
    大量有關深度學習的成功或失敗事例給我們上了寶貴的一課,教會我們正確處理數據。在這篇文章中,我們將深入剖析深度學習的潛力,深度學習與經典計算機視覺的關係,以及深度學習用於關鍵應用程式的潛在危險。視覺問題的簡單與複雜首先,我們需要就視覺/計算機視覺問題提出一些看法。
  • Yann LeCun:深度學習已死,可微分編程萬歲!
    Yann LeCun:深度學習已死,可微分編程萬歲!好,深度學習作為一個流行詞,現在時效已過。深度學習已死,可微分編程萬歲!沒錯,「可微分編程」不過是把現代這套深度學習技術重新換了個叫法,這就跟「深度學習」是現代兩層以上的神經網絡變體的新名字一樣。
  • 圖靈獎得主Hinton霸氣回擊Jürgen
    機器之心報導參與:魔王、澤南Jürgen 的質疑迎來了深度學習之父、圖靈獎得主 Geoffrey Hinton 的迅速回擊,老爺子顯得很憤怒。前幾天,計算機科學家、LSTM 之父 Jürgen Schmidhuber 發文,以六條理由批評 Geoffrey Hinton 不應獲得 2019 年本田獎。其中第一條理由就是「反向傳播並非 Hinton 原創」。這件事在 reddit 等平臺上引發了大量討論。
  • 麥大畢業生,蒙大教授拿了「計算機諾貝爾」!三位獲獎者兩位是加拿大人!
    回答:在人工智慧深度學習方面的貢獻!人工智慧(Artificial Intelligence,縮寫AI),是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。畢業於麥吉爾大學,研究領域是計算機科學,因深度學習、神經機器翻譯、生成對抗網絡、詞嵌入、去噪自編碼器、神經語言模型、課程學習、元學習等領域而聞名。
  • 吳恩達deeplearning.ai五項課程完整筆記了解一下?
    項目地址:https://github.com/mbadry1/DeepLearning.ai-Summary上周吳恩達在推特上展示了一份由 TessFerrandez 完成的深度學習專項課程信息圖,這套信息圖優美地記錄了深度學習課程的知識與亮點。這一份信息圖的詳細介紹請查看:這是一份優美的信息圖,吳恩達點讚的 deeplearning.ai 課程總結 。
  • 當AI遇到生物-深度學習在生物研究中的應用案例列表
    由於這個領域的進步很快,深度學習助力基因科技這篇一年前寫的文章,現在看來已有些過時。本篇文章列出了部分現有的應用深度學習技術處理醫學和生物學問題的工具,從這個列表中,可以看出當前深度學習在該領域的挑戰和局限,也可以全面的了解深度學習在計算生物學,醫學影像及生物信息等學科所具有的廣泛應用場景。深度學習+生物的論文發表數量
  • 超實用總結:AI實踐者需要用到的10個深度學習方法
    一般將深度學習網絡與「典型」前饋多層網絡從如下方面進行區分:  深度學習比前饋網絡有更多的神經元  深度學習中層之間的連接方式比前饋網絡更複雜  訓練深度學習需要有像「寒武紀大爆發」式的計算能力  深度學習可以自動提取特徵  上述 「更多的神經元」,是指近年來神經元的數量不斷增加,深度學習就可以表示更為複雜的模型。
  • ACM宣布深度學習三巨頭共同獲得圖靈獎
    根據ACM官網上的信息顯示,ACM決定將2018年ACM A.M.圖靈獎授予約書亞·本吉奧(Yoshua Bengio)、傑弗裡·辛頓(Geoffrey Hinton)和楊樂昆(Yann LeCun) 三位深度學習之父,以表彰他們給人工智慧帶來的重大突破,這些突破使深度神經網絡成為計算的關鍵組成部分。本吉奧是蒙特婁大學教授,也是魁北克人工智慧研究所Mila的科學主任。
  • 萬眾期待:Hinton團隊開源CapsNet源碼
    此前,Hinton一再強調,當前的反向傳播和CNN網絡存在很大的局限性,表明AI的下一代研究方向是「無監督學習」。因此,CapsNet應運而生,雖然傳統神經網絡很大程度上是在Hinton的理論基礎上創建的,但Hinton卻絲毫沒有手下留情,聲稱要把反向傳播等深度學習方法推倒重來。