Yann LeCun:用預測學習替代無監督學習

2021-02-14 MOOC

來源:Medium、Yann LeCun

轉載公眾號:新智元

微信號:AI_era

作者:Carlos E. Perez、Yann LeCun

編譯:王楠、劉小芹


【新智元導讀】日前,Facebook AI 實驗室負責人、紐約大學教授 Yann LeCun 受邀在今年的 NIPS 大會發表主旨演講,暢談深度學習最近技術進展。值得注意的是,LeCun 試圖改變人們對 AI 的通常分類(即無監督學習、監督學習和增強學習),他在演講中用「預測學習」替代「無監督學習」,因為預測學習要求機器不僅能在沒有人類監督的情況下學習,而且能夠學習世界的預測模型。

此外,LeCun 還引入了使用 RNN 實體從文本中推斷世界的狀態等新的技術,結合深度學習領域最新發展,比如 TorchCraft、使用對抗訓練讓系統預測視頻接下來的內容。【在新智元微信公眾號回復1207,可下載全部75頁PPT】

要了解今年 NIPS 的盛況,先上一張圖:


2016 年,作為學界頂級盛會的 NIPS 共收到投稿超過 2500 篇,最終接收了 568 篇——保守估計接收率 22.7%。這個論文接收率並不算那麼低(相較其他頂會),不過,得到口頭展示機會的名副其實百裡挑一。

再看參會人數及其近年來的增長趨勢(上圖右)——尤其是近兩年,用「直線上升」形容毫不誇張。如果這個顯示的是某個國家的 GDP,估計領導人絕對合不攏嘴了。

作為 2016 年 NIPS 大會受邀發表主旨演講的第一人,紐約大學教授、Facebook 人工智慧實驗室(FAIR)主管 Yann LeCunn 的演講備受矚目:


(文/Carlos E. Perez)Yann LeCun 今年演講中多次提到這樣一個類比:

如果把「智能」(intelligence)比作一個蛋糕,那麼無監督學習就是蛋糕本體,監督學習是蛋糕上的糖霜,而增強學習是蛋糕上的櫻桃。我們知道如何得到糖霜和櫻桃,但不知道怎樣做蛋糕。


在 NIPS 2016 上,LeCun 開始使用「預測學習」(predictive learning)這個詞代替「無監督學習」(unsupervised learning)。LeCun 在演講中說:

我們缺乏的一個關鍵要素是預測(或無監督)學習:機器具有模擬環境,預測未來的可能性,以及通過觀察和參與理解世界如何運作的能力。

這是一個有趣的變化,表明 LeCun 的「做蛋糕」觀點有了一些微妙的變化。在 LeCun 看來,需要建立基礎,然後才能讓 AI 加速進步。換句話說,在我們能夠建立「預測基礎層」(predictive foundational layer)之前,試圖通過增加更多的內存、知識庫、協作智能體等構建當前的監督學習將會十分困難。

在 NIPS 大會上,他貼出了下面這張 PPT:


1. 機器需要學習/理解世界的運轉方式

    物理世界、數字世界、人

    需要掌握常識

2. 機器需要學會大量的背景知識

   通過觀察或者行動

3.機器需要感知世界的變化

   以作出精準的預測和計劃

4.機器需要更新並記住對世界狀態的預測

  關注重大事件、記住相關事件

5. 機器需要會推理和計劃

  預測哪些行動會帶來預期的改變

智能&常識=感知+預測模型+記憶+推理&計劃

LeCun 的演講強調了我們面前的艱巨任務。

預測學習要求機器不僅能在沒有人類監督的情況下學習,而且能夠學習世界的預測模型。這點非常重要,這也是為什麼 LeCun 試圖改變人們對 AI 的通常分類(即無監督學習、監督學習和增強學習)。

以下為 Yann LeCun NIPS 2016 演講實錄——《預測學習》


很高興跟大家分享,今天我演講的主題是「預測學習」。

什麼是預測學習?首先,我們還是要先從感知機講起。從下面的照片中可以看見年輕的 Geoff Hinton,他當時還是 CMU 的研究員。Tarry Knoafski、Jay McLaren(他當時也在CMU),在 McLaren 旁邊是 Michael Jordan。照片上的這些人現在基本都已經成就了一番大事業。還有我,我就在那裡。

當時是段美好的時間。那時候是人們第一次開始提起 Backpropagation,Backpro 這個概念在當時真的超級火,雖然論文還沒有發表出來——照照片的時候還是 1986 年7月,在章節中涉及 BP 算法的書後來才出版,相關論文也是一年後才在 Nature 發表。


我現在展示的這張照片顯示的是感知機——我們都忘記了 20 世紀 50 年代的感知機,但感知機可以說是所有神經網絡的基礎。感知機實際上並不是一個電腦程式,而是一臺模擬計算機(analog computer)。與神經元模型不同,感知器中的權值是通過訓練得到的。你只要一按鍵,當系統發生錯誤時,所有的模塊都會「死過去」。

我們都知道監督學習是什麼了,而我之所以要提監督學習,是因為後面我們會涉及為什麼它有局限。在機器學習中,我們將樣本——比如汽車或者飛機的圖像,輸入有很多可調參數的機器裡——這實際上是一個類比。當輸入的是一輛車時,紅燈就會亮,當輸入是飛機時就打開綠燈。然後我們就不停調整參數。通過增加梯度,我們可以調整亮綠燈的次數。

這張 Slide 大家都看過很多次了,用於物體識別的深度卷積網絡。監督學習實際上就是學會層次化的表徵。例如下面用卷積網絡做自動駕駛,這是當初 DARPA 挑戰賽做的機器人。

使用卷積網絡生成圖說、進行圖像詞義分割

使用卷積網絡進行的自動駕駛

多層神經網絡:

一個單元包含多層神經網絡

一個單元計算其獲得的輸入的一部分加權和

加權和會通過一個非線性函數

學習算法會改變權重

1.機器需要學習/理解世界的運轉方式

    物理世界、數字世界、人

    需要掌握常識

2. 機器需要學會大量的背景知識

   通過觀察或者行動

3.機器需要感知世界的變化

   以作出精準的預測和計劃

4.機器需要更新並記住對世界狀態的預測

  關注重大事件、記住相關事件

5. 機器需要會推理和計劃

  預測哪些行動會帶來預期的改變

智能&常識=感知+預測模型+記憶+推理&計劃

什麼是常識?代詞「它」的指代對象,動作的執行者。機器該怎麼理解。

預測學習/無監督學習的重要性

訓練大型學習機器所要求的樣本的數量,取決於我們讓它預測的信息量

我們向機器提問的信息越多,所需的樣本數量越大

大腦有 10^14 的神經突觸,而我們的生命只有 10^9 秒。我們擁有的參數的量遠超數據的量。這就激發了一種想法,即由於知覺輸入(包括本體感覺)是唯一能每秒得到 10^5 個維度的約束的地方,我們必須要做很多的無監督學習。

預測人類提供的標記是不足夠的

預測一個價值函數也不足夠

如果把「智能」(intelligence)比作一個蛋糕,那麼無監督學習就是蛋糕本體,監督學習是蛋糕上的糖霜,而增強學習是蛋糕上的櫻桃。我們知道如何得到糖霜和櫻桃,但不知道怎樣做蛋糕。

在 FAIR 使用強化學習訓練系統玩遊戲的例子

順便給剛剛開源的 TorchCraft 打一下廣告


有趣的是,在LeCun講解 Sutton例子時,Sutton 本人就在下面聽(最後排最右邊)。來源:Twitter

經典的基於模型的優化控制

用初始控制序列模擬世界

調整控制序列,通過梯度下降優化對象

在上世紀 50 年代,通過控制論,發明了 BP 算法

AI 系統 = 會學習的智能體 + 不可變對象

AI 系統 = 會預測 + 會規劃= 能夠進行推理

我們需要的是基於模型的強化學習系統

智能體的關鍵在於能夠預測

要進行預測,就必須對世界進行模擬,至少對物體功能進行一定程度上的預測

學習物理:物理網絡

具有記憶模塊的增強神經網絡

遞歸神經網絡不能長久地記憶,需要一個額外的記憶模塊

遞歸網絡的記憶時間不長:大腦皮層能維持的記憶時間只有 20 秒

我們需要「海馬體」(一個單獨的記憶模塊)

  LSTM [Hochreiter 1997]

  記憶網絡 [Weston et 2014] (FAIR),關聯記憶

  Stack RNN [Joulin & Mikolov 2014] (FAIR)

  神經圖靈機 [Graves 2014]

  可微分神經計算機 [Graves 2016]

差分記憶

記憶增強遞歸網絡

實體RNN

保持對世界當前現狀的估計

每個模塊都是一個帶有「記憶」的遞歸網絡

每次輸入都當值記憶單元更新

基於能量的非監督學習,能量函數

塑造能量函數的七大策略

 構建機器使低能物質的容量恆定

 使數據點能量下降,其餘上升

 使數據點能量下降,選定位置能量上升

 使梯度最小,數據點周圍曲率最大

 訓練動態系統

 利用正則化項限制低能量的空間容量

 假如 E(Y) = IIY - G(Y)II^2,使 G(Y) 儘量「恆定」

基於能量的非監督學習

對抗訓練:可訓練的對象函數

在圖像識別上的應用


人類的大腦是「預測機器」

我們能夠把機器訓練得能夠預測未來嗎?

   

在這方面,使用「對抗訓練」取得了一些進展

但是,離成功或者說完善的解決方案,還要十分遙遠的距離

使用對抗網絡進行視頻內容預測實例

編譯來源:

1.https://medium.com/intuitionmachine/predictive-learning-is-the-key-to-deep-learning-acceleration-93e063195fd0#.7ia0cj6ip

2.LeCun NIPS 2016 演講

新智元簡介:人工智慧領域排名第一的社交平臺,專注報導人工智慧領域的前沿資訊、產業分析和技術乾貨

 慕編組成員:葉子

產權及免責聲明本文系「MOOC」公號轉載、編輯的文章,編輯後增加的插圖均來自於網際網路,對文中觀點保持中立,對所包含內容的準確性、可靠性或者完整性不提供任何明示或暗示的保證,不對文章觀點負責,僅作分享之用,文章版權及插圖屬於原作者。如果分享內容侵犯您的版權或者非授權發布,請及時與我們聯繫,我們會及時內審核處理。

了解在線教育,
把握MOOC國際發展前沿,請關注:
微信公號:openonline
公號暱稱:MOOC

 

相關焦點

  • 圖靈獎得主Bengio和LeCun:自監督學習可使AI達到人類智力水平
    很多網友比較關注的一個問題是,自監督學習和無監督學習是一個意思嗎? 自監督類似無監督學習,都是從沒有明確標籤的數據中進行學習。但無監督學習側重於學習數據的內在關係、結構,比如clustering、grouping、density estimation, or anomaly detection等等,而自監督是根據數據集本身生成標籤。
  • Facebook Yann LeCun一小時演講: AI 研究的下一站是無監督學習(附...
    他在演講中提到三點乾貨:1. 無監督學習代表了 AI 技術的未來。2. 當前 AI 應用的熱點集中在卷積神經網絡。 3. 用模擬器提高無監督學習的效率是大勢所趨。演講完整視頻如下。但這些系統現在用的都是監督學習(supervised learning),輸入的數據被人為加上標籤。接下來的挑戰在於,怎麼讓機器從未經處理的、無標籤無類別的數據中進行學習,比方說視頻和文字。而這就是無監督學習(unsupervised learning)。
  • Yann LeCun:深度學習已死,可微分編程萬歲!
    其中,Dietterich提到,「深度學習本質上是一種新的編程方式——可微分編程——而且這個領域正試圖用這種方式來制定可重用的結構。目前我們已經有:卷積,池化,LSTM,GAN,VAE,memory單元,routing單元,等等。」
  • Yann LeCun送你的春節大禮:免費學習全部2020春季深度學習課程
    本篇文章所透露的信息,對於廣大深度學習愛好者和學習者來說,絕對是「重磅福利」!! 紐約大學數據科學中心(NYU Center for Data Science)宣布,「深度學習三巨頭」之一的Yann LeCun2020春季開設的深度學習課程——DS-GA 1008,所有材料和資源全部免費向全網開放!
  • Yann Lecun自監督學習指南(附114頁Slides全文下載)
    2018年11月08日,他來到加州大學聖巴巴拉分校,為在場師生作了一場關於自監督學習的前沿報告,近日他在twitter上公開了報告的全程錄像以及Slides全文,現為大家編譯如下。近年來,深度學習在計算機感知、自然語言處理和控制方面取得了重大進展。但幾乎所有這些成功都在很大程度上依賴於有監督學習,在監督學習中,機器被要求預測人類提供的標籤信息,或通過無模型的強化學習方法,不斷的嘗試各種行為空間的動作,以期達到收益(reward)最大化。這導致了監督學習需要大量的標記樣本,使得它只適用於特定的任務。而強化學習即使在簡單的學習任務中,也需要與環境進行大量的交互。
  • 監督學習/無監督學習/半監督學習
    監督學習:(數據有輸入有輸出),通過已有的一部分數據和輸出數據之間的相應關係,生成一個函數,將輸入映射到合適的輸出,在準確的說有監督學習就是訓練樣本中必須有標籤或者標記;無監督學習:(數據只有輸入),給定的訓練樣本中難以標註類別或者標註成本過高,這類沒有類別標註(未被標記)的訓練集建模模式稱為無監督學習
  • 機器學習實戰-監督學習、無監督學習
    本文章節1、監督學習2、無監督學習3、兩者的區別4、兩者的使用場景監督學習監督學習,小編有個簡單的理解方式,按照這個順序來理解1、有兩撥人,一撥人是好人,一撥是壞人2、好人的行為特徵有:扶老奶奶過馬路,撿到一分錢交給警察叔叔,當志願者等等3、壞人的行為特徵有:偷東西
  • 【損失函數合集】Yann Lecun的Contrastive Loss 和 Google的Triplet Loss
    昨天我們了解到用SoftMax損失函數訓練出的分類模型在Mnist測試集上就表現出「類間」區分邊界不大的問題了,使得遭受對抗樣本攻擊的時候很容易就分類失敗。況且人臉識別需要考慮到樣本的類別以及數量都是非常多的,這無疑使得直接用特徵向量來對比更加困難。
  • 不需要負樣本對的SOTA的自監督學習方法:BYOL
    相比之下,在自監督學習中,在數據集中沒有正確的答案,因此我們學習一個函數,把輸入數據映射輸入到本身(比如:使用圖像的右半部分預測圖像的左半部分)。從語言到圖像和音頻,這種方法已經被證明是成功的。事實上,最近的語言模型,從word2vec到BERT和GPT-3,都是自監督方法的例子。
  • ...Yann LeCun「人工智慧發展的挑戰在於無監督學習」原版演講PPT
    資料 | Yann LeCun「人工智慧發展的挑戰在於無監督學習」原版演講PPT
  • Reddit熱議:AI教父Yann LeCun提出的「能量模型...
    「能量自監督學習到底是什麼鬼?」不少Reddit網友評論說。剛剛,深度學習教父Yann LeCu登上了Reddit熱搜。一位不知名的開發者發表了一篇題為「Yann LeCun提出基於能量的自監督學習到底是什麼」的帖子,引發眾多網友討論。
  • 什麼是無監督學習?
    三、無監督學習與監督學習的區別 :監督學習(supervised learning),是從給定的有標註的訓練數據集中學習出一個函數(模型參數),當新的數據到來時可以根據這個函數預測結果。常見任務包括分類與回歸。
  • 機器學習中的監督式學習和無監督學習
    機器學習中的監督式學習和無監督學習監督式學習指的是基於標籤化的訓練數據來構建一個機器學習模型的過程
  • 機器學習-無監督學習
    當作為其他統計模型的輸入時,這種低維表示通常會導致更好的預測精度,因為它們關注對象的本質,過濾掉不重要的特徵。此外,低維表示對於實現快速最近鄰搜索非常有用,而二維投影對於可視化高維數據非常有用。降維最常用的方法是主成分分析(PCA)。它可以被認為是(多輸出)線性回歸的無監督版本,我們觀察高維響應y並從從觀測到的高維y中推斷出潛在的低維z,詳見12.1節。
  • 有限樣本學習(一):半監督學習
    由此,機器學習中誕生了一些新的範式,專門用於解決在標籤非常缺乏的情況下的學習問題。在這些範式中,半監督學習是一個可選方案(半監督學習僅需依賴很少部分打過標籤的數據+大量無標籤數據)。在監督學習任務中,如果我們僅有少量的帶標籤數據,通常我們會考慮以下四個方法:預訓練+微調:在一個非常大的非監督數據集上進行任務無關的模型訓練,比如:使用純文本訓練的預訓練語言模型,通過自監督學習對無標籤圖片訓練的預訓練視覺模型。
  • 比監督學習做的更好:半監督學習
    從它的概念開始,無數的算法,從簡單的邏輯回歸到大規模的神經網絡,都已經被研究用來提高精確度和預測能力。然而,一個重大突破揭示了添加「無監督數據」可以提高模型泛化和性能。事實上,在非常多的場景中,帶有標籤的數據並不容易獲得。半監督學習可以在標準的任務中實現SOTA的效果,只需要一小部分的有標記數據 —— 數百個訓練樣本。
  • Yann LeCun主講!紐約大學《深度學習》2020課程全部開放
    CDS發布了Yann LeCun的深度學習(DS-GA 1008)課程的所有材料,包括帶英文字幕教學視頻、書面講義、課件以及帶有PyTorch實現的可執行Jupyter Notebooks。
  • 深度學習元老Yann Lecun詳解卷積神經網絡
    Yann LeCun出生在法國,曾在多倫多大學跟隨深度學習鼻祖Geoffrey Hinton進行博士後研究。他於2003年成為紐約大學教授,並從此引領了深度學習的發展,目前任職於Facebook FAIR實驗室。本文是Yann LeCun對於卷積神經網絡(Convolutional Neural Network)的演講介紹PPT。
  • 大神Yann LeCun:我們的使命是終結「填鴨式」 AI
    >導讀:無監督學習才是 AI 的未來,目前的 AI 技術太過於稚嫩!無監督學習是一大難題,Facebook 的 AI 大牛 Yann LeCun 一直在追尋它。他承諾帶領研究人員進入下一代人工智慧,機器將擁有更高的智能,可以感知世界,並採取相應的行動,我們稱之為常識。
  • 機器學習算法之有監督學習和無監督學習的區別
    在這篇文章中,我們將探討有監督和無監督學習,這是機器學習算法的兩個主要類別。一、監督學習如果你有關注有關於人工智慧的新聞,你可能已經聽說過AI算法需要很多人工標記的示例。這些故事指的是監督學習,這是機器學習算法中比較流行的類別。監督式機器學習適用於你知道輸入數據結果的情況。假設你要創建一個圖像分類機器學習算法,該算法可以檢測貓,狗和馬的圖像。