Deep Learning模型最近若干年的重要進展

2020-12-13 雷鋒網

雷鋒網 AI 科技評論按:近日,清華大學唐傑副教授及其學生丁銘結合其 Aminer 資料庫整理出 Deep Learning 模型最近若干年的重要進展,共有 4 條脈絡。雷鋒網獲其授權轉載,在此分享。

Track.1 CV/Tensor

1943 年出現雛形,1958 年研究認知的心理學家 Frank 發明了感知機,當時掀起一股熱潮。後來 Marvin Minsky(人工智慧大師)和 Seymour Papert 發現感知機的缺陷:不能處理異或迴路、計算能力不足以處理大型神經網絡。停滯!

1986 年 Hinton 正式地提出反向傳播訓練 MLP,儘管之前有人實際上這麼做。

1979 年,Fukushima 提出 Neocognitron,有了卷積和池化的思想。

1998 年,以 Yann LeCun 為首的研究人員實現了一個七層的卷積神經網絡 LeNet-5 以識別手寫數字。

後來 SVM 興起,這些方法沒有很受重視。

2012 年,Hinton 組的 AlexNet 在 ImageNet 上以巨大優勢奪冠,興起深度學習的熱潮。其實 Alexnet 是一個設計精巧的 CNN,加上 Relu、Dropout 等技巧,並且更大。這條思路被後人發展,出現了 VGG、GooLenet 等。

2016 年,青年計算機視覺科學家何愷明在層次之間加入跳躍連接,Resnet 極大增加了網絡深度,效果有很大提升。一個將這個思路繼續發展下去的是去年 CVPR Best Paper Densenet。CV 領域的特定任務出現了各種各樣的模型(Mask-RCNN 等),這裡不一一介紹。

2017 年,Hinton 認為反省傳播和傳統神經網絡有缺陷,提出 Capsule Net。但是目前在 CIFAR 等數據集上效果一半,這個思路還需要繼續驗證和發展。

Track.2 生成模型

傳統的生成模型是要預測聯合概率分布 P(x,y)。

RBM 這個模型其實是一個基於能量的模型,1986 年的時候就有,他在 2006 年的時候重新拿出來作為一個生成模型,並且將其堆疊成為 Deep Belief Network,使用逐層貪婪或者 Wake-Sleep 的方法訓練,不過這個模型效果也一般現在已經沒什麼人提了。但是從此開始 Hinton 等人開始使用深度學習重新包裝神經網絡。

Auto-Encoder 也是上個世紀 80 年代 Hinton 就提出的模型,此時由於計算能力的進步也重新登上舞臺。Bengio 等人又搞了 Denoise Auto-Encoder。

Max Welling 等人使用神經網絡訓練一個有一層隱變量的圖模型,由於使用了變分推斷,並且最後長得跟 Auto-encoder 有點像,被稱為 Variational Auto-encoder。此模型中可以通過隱變量的分布採樣,經過後面的 decoder 網絡直接生成樣本。

GAN 是 2014 年提出的非常火的模型,他是一個隱的生成模型,通過一個判別器和生成器的對抗訓練,直接使用神經網絡 G 隱式建模樣本整體的概率分布,每次運行相當於從分布中採樣。

DCGAN 是一個相當好的卷積神經網絡實現,WGAN 是通過維爾斯特拉斯距離替換原來的 JS 散度來度量分布之間的相似性的工作,使得訓練穩定。PGGAN 逐層增大網絡,生成機器逼真的人臉。

Track3 Sequence Learning

1982 年出現的 Hopfield Network 有了遞歸網絡的思想。1997 年 Jürgen Schmidhuber 發明 LSTM,並做了一系列的工作。但是更有影響力的是 2013 年還是 Hinton 組使用 RNN 做的語音識別工作,比傳統方法高出一大截。

文本方面 Bengio 在 SVM 最火的時期提出了一種基於神經網絡的語言模型,後來 Google 提出的 Word2Vec 也有一些反向傳播的思想。在機器翻譯等任務上逐漸出現了以 RNN 為基礎的 seq2seq 模型,通過一個 encoder 把一句話的語義信息壓成向量再通過 decoder 輸出,當然更多的要和 attention 的方法結合。

後來前幾年大家發現使用以字符為單位的 CNN 模型在很多語言任務也有不俗的表現,而且時空消耗更少。self-attention 實際上就是採取一種結構去同時考慮同一序列局部和全局的信息,Google 有一篇聳人聽聞的 Attention Is All You Need 的文章。

Track.4 Deep Reinforcement Learning

這個領域最出名的是 DeepMind,這裡列出的 David Silver 是一直研究 RL 的高管。

Q-Learning 是很有名的傳統 RL 算法,Deep Q-Learning 將原來的 Q 值表用神經網絡代替,做了一個打磚塊的任務很有名。後來有測試很多遊戲,發在 Nature。這個思路有一些進展 Double Dueling,主要是 Q-learning 的權重更新時序上。

DeepMind 的其他工作 DDPG、A3C 也非常有名,他們是基於 policy gradient 和神經網絡結合的變種(但是我實在是沒時間去研究)

一個應用是 AlphaGo 大家都知道,裡面其實用了 RL 的方法也有傳統的蒙特卡洛搜索技巧。Alpha Zero 是他們搞了一個用 Alphago 框架打其他棋類遊戲的遊戲,吊打。

雷鋒網註:

本文獲唐傑副教授授權轉自其微博。唐傑老師帶領團隊研發了研究者社會網絡 ArnetMiner 系統,吸引了 220 個國家 277 萬個獨立 IP 的訪問。AMiner 近期持續推出了 AI 與各領域結合的研究報告,可訪問 AMiner 官網了解更多詳情。

AMiner:

清華大學 AMiner 學術搜尋引擎,是一個以科研人員為中心,通過領先的語義分析和挖掘技術,提供在線實時的人才、科技評估報告的情報平臺。

系統自上線 10 年以來,匯集了全球 1.3 億科研人員,2.7 億篇論文,吸引了全球超過 220 個國家 800 萬個獨立 IP 的訪問,是除了谷歌 scholar 之外最大的學術搜索系統。為全球最大學術期刊出版社 Elsevier,以及 KDD、ICDM、WSDM 等 20 餘個重要國際會議提供審稿人推薦及語義信息服務。AMiner 項目獲 2013 年中國人工智慧學會科學技術進步一等獎,核心理論部分獲 2013 年中國電子學會自然科學二等獎、2017 年北京市科技進步一等獎。

相關焦點

  • Deep learning與Neural Network
    但是,一個痴心的老先生Hinton,他堅持了下來,並最終(和其它人一起Bengio、Yann.lecun等)提成了一個實際可行的deep learning框架。Deep learning與傳統的神經網絡之間有相同的地方也有很多不同。
  • Deep Learning & Neural Network 免費學習資源【譯】
    https://www.deeplearning.ai/    下面言歸正傳,由於都是國外學習資源,請科學上網。1.3.Carnegie Mellon University – Deep Learning連結地址<http://deeplearning.cs.cmu.edu/>    卡耐基梅隆大學的深度學習在線課程雖然結束於2015年10月,但我們可以獲得課程寶貴的slides及其他在線學習材料,通過這些優質的slides,可以讓你快速理解深度學習一些知識
  • Spark與深度學習框架——H2O、deeplearning4j、SparkNet
    deeplearning4j是由Skymind開發的,Skymind是一家致力於為企業進行商業化深度學習的公司。deeplearning4j框架是創建來在Hadoop及Spark上運行的。這個設計用於商業環境而不是許多深度學習框架及庫目前所大量應用的研究領域。Skymind是主要的支持者,但deeplearning4j是開源軟體,因此也歡迎大家提交補丁。
  • 機器學習(Machine Learning)&深度學習(Deep Learning)資料(之一)
    《Deep Learning in Neural Networks: An Overview》 介紹:這是瑞士人工智慧實驗室Jurgen Schmidhuber寫的最新版本《神經網絡與深度學習綜述》本綜述的特點是以時間排序,從1940年開始講起,到60-80年代,80-90年代,一直講到2000年後及最近幾年的進展。涵蓋了deep learning裡各種tricks,引用非常全面.
  • 新書推薦 | Deep Reinforcement Learning
    深度強化學習是實現智能決策的關鍵技術之一,對人工智慧、機器人、認知科學、金融、資源調配、等重大應用需求和研究方向有重要的意義。深度學習是基於深度神經網絡的機器學習方法。深度強化學習是強化學習和深度學習的結合體,隨著近幾十年來深度學習發展的熱潮,深度強化學習作為一個新的重要學科分支吸引了越來越多的科研和產業人員的關注。
  • Full Stack Deep Learning追劇筆記大全
    最近看了這個非常不錯的來自Berkeley的課程Full Stack Deep Learning https://fall2019.fullstackdeeplearning.com/,介紹了實際深度學習項目落地過程中的各個方面,包括項目設定,團隊組織,框架工具,數據管理,開發調優實踐,測試與生產上線等。
  • Deep Learning模型優化編譯器 TVM 踩坑記錄,強烈推薦!
    >關注我最近想法的同學應該知道我最近都在把玩 TVM,今天終於使用 TVM 得到了非常滿意的結果,而專欄也很長時間沒更新了,於是來安利 (水) 一篇。本來可能用不到 TVM,項目其實進展的很順利,我們初始的 tensorflow 模型在 android 端得到了滿意的 latency,我也可以照常一邊修煉我的仙, 繼續和有奶大定律, 自由單子, Kan-Extension 等邪魔外道搏鬥... 一邊穩穩的推進項目進度。
  • 深度學習(Deep Learning) 學習資料
    最近開始想系統學習一下, 整理了一些網上學習資料, 也供有共同興趣的朋友參考。如果有好的推薦,也歡迎給我留言。學習網站1. Deep Learning 101 http://markus.com/deep-learning-101/?
  • 大牛的《深度學習》筆記,Deep Learning速成教程
    但是自 2006 年以來,機器學習領域,取得了突破性的進展。圖靈試驗,至少不是那麼可望而不可及了。至於技術手段,不僅僅依賴於雲計算對大數據的並行處理能力,而且依賴於算法。這個算法就是,Deep Learning。藉助於 Deep Learning 算法,人類終於找到了如何處理「抽象概念」這個亙古難題的方法。
  • ​大牛的《深度學習》筆記,Deep Learning速成教程
    計算機和人工智慧的鼻祖,分別對應於其著名的「圖靈機」和「圖靈測試」)在 1950 年的論文裡,提出圖靈試驗的設想,即,隔牆對話,你將不知道與你談話的,是人還是電腦。這無疑給計算機,尤其是人工智慧,預設了一個很高的期望值。但是半個世紀過去了,人工智慧的進展,遠遠沒有達到圖靈試驗的標準。這不僅讓多年翹首以待的人們,心灰意冷,認為人工智慧是忽悠,相關領域是「偽科學」。
  • 深度學習(deep learning)發展史
    深度學習deep learning通過其他較簡單的表示來表達複雜表示,解決了表示學習中的核心問題。深度學習讓計算機通過較簡單的概念構建複雜的概念。圖 1.2 展示了深度學習系統如何通過組合較簡單的概念 (例如角和輪廓,它們反過來由邊線定義) 來表示圖像中人的概念。深度學習模型的典型例子是前饋深度網絡或或多層感知機multilayer perceptron(MLP)。
  • 吳恩達重磅回歸,成立創業公司Deeplearning.ai
    有趣的是,吳恩達選擇創業公司的地址是在百度 Synnyvale 人工智慧產業園裡——和他在百度時的辦公室是同一個位置Deeplearning.ai 官網連結:https://www.deeplearning.ai/目前依然不清楚吳恩達是否在百度任職期間就開始了其項目 Deeplearning.ai。
  • 【強基固本】深度強化學習(Deep Reinforcement Learning)入門
    也就是說Q-learning壓根沒有預測能力,也就是沒有泛化能力。為了能使得Q的學習能夠帶有預測能力,熟悉機器學習的同學很容易想到這就是一個回歸問題啊!用函數擬合Q:代表的是模型參數,模型有很多種選擇,線性的或非線性的。傳統的非深度學習的函數擬合更多是人工特徵+線性模型擬合。
  • 吳恩達deeplearning.ai五項課程完整筆記了解一下?
    自吳恩達發布 deeplearning.ai 課程以來,很多學習者陸續完成了所有專項課程並精心製作了課程筆記,在此過程中機器之心也一直在為讀者推薦優質的筆記。上個月,deep learning.ai 第五課發布,該系列課程最終結課。
  • 自動機器學習:最近進展研究綜述
    本文首先從端到端系統的角度總結了自動機器學習在各個流程中的研究成果(如下圖),然後著重對最近廣泛研究的神經結構搜索(Neural Architecture Search, NAS)進行了總結,最後討論了一些未來的研究方向。
  • 6月29日發售 | Deep Reinforcement Learning
    深度強化學習是實現智能決策的關鍵技術之一,對人工智慧、機器人、認知科學、金融、資源調配等重大應用需求和研究方向有重要的意義。深度學習是基於深度神經網絡的機器學習方法。深度強化學習是強化學習和深度學習的結合體,隨著近幾十年來深度學習發展的熱潮,深度強化學習作為一個新的重要學科分支吸引了越來越多的科研和產業人員的關注。
  • 百度開源移動端深度學習框架mobile-deep-learning(MDL)
    2017 年 9 月 25 日,百度在 GitHub 開源了移動端深度學習框架 mobile-deep-learning(MDL)的全部代碼以及腳本,希望這個項目在社區的帶動下能夠更好地發展。寫在前面深度學習技術已經在網際網路的諸多方向產生影響,每天科技新聞中關於深度學習和神經網絡的討論越來越多。
  • ​機器學習(Machine Learning)&深度學習(Deep Learning)資料(之二精選161-315網址)
    《A Tour of Machine Learning Algorithms》介紹:這是一篇關於機器學習算法分類的文章,非常好182.《2014年的《機器學習日報》大合集》介紹:機器學習日報裡面推薦很多內容,在這裡有一部分的優秀內容就是來自機器學習日報.183.
  • 全面回顧2020年圖機器學習進展,12位大神論道、寄望2021年大爆發!
    該領域的其它重要工作還包括:具有可學習指針的 GNN[21,15]、具有關係機制的GNN[22,23]、通過自適應的計算圖學習基於網格的物理仿真器[24]、學習推理執行計算的抽象節點的模型[25]。這些研究進展具有廣泛的啟發意義,使我們可以有效地在其它的領域(例如文本或視頻處理)利用 GNN 架構提供的對稱性(例如,節點排列等變性)和歸納偏置(例如,對成對的交互函數建模)。
  • 離開百度後的第五個月,吳恩達親授Deep Learning課程在國內上線
    今年6月,已從百度離職的吳恩達在Twitter上宣布了他的新項目deeplearning.ai。本月初,吳恩達曾透露,deeplearning.ai是一個傳播AI知識的項目,會製作一系列深度學習課程,放到Coursera平臺上面供大家學習。「如今AI和機器學習領域十分活躍,但我認為取得最多成果的還是深度學習。」