【乾貨】2017最火的五篇深度學習論文 總有一篇適合你

2021-02-13 專知

【導讀】最近,MIT博士生學生GREGORY J STEIN在博客中總結了2017年他最喜歡的深度學習論文,並且列出了這一年對他研究思考影響最深的五篇論文,其中包括《CycleGAN,  Deep Image Prior,蘋果的simGAN, Wasserstein GAN,  AlphaGo zero》,並且詳細地解釋了為什麼會選擇這篇論文的原因,值得大家細細品味!專知內容組編輯整理。

MY FAVORITE DEEP LEARNING PAPERS OF 2017

2017年我最喜歡的深度學習論文

雖然今年發表的深度學習相關的論文多如牛毛,但是仍然有些論文因其獨特的貢獻而脫穎而出。 下面是過去一年對我的研究思考影響最多的五篇論文。 對於每篇論文,我都解釋了論文的要解決什麼問題,簡要總結了論文主要的創新點,並說明我覺得它很有趣的原因。

 

1. 最酷的視覺效果: CycleGAN-圖像遷移

 

題目: Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

作者: Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros (來自伯克利AI研究所)

目標:自動將某一類圖片轉換成另外一類圖片。

與其上來就說一大堆這篇論文裡所做的那些技術細節,不如讓我們先來看看這些令人難以置信的結果:

(旁邊的注釋):這些令人驚人的圖像來自CycleGAN論文,作者在這篇論文中訓練了一對轉換網絡,能夠在不同類的圖像集之間進行轉換。

 

作者用來自不同領域的兩組圖像舉例,例如普通的馬和斑馬。他實現了兩個轉換網絡:其中一個將馬的圖像轉化為斑馬圖像,另一個將斑馬圖像轉化為馬圖像。每個轉換器都實現一種樣式轉換,它不是針對單個圖像的樣式,而是去發現一組圖像的聚合樣式。

轉換網絡被訓練成一組生成對抗網絡GAN,每個網絡都試圖欺騙鑑別者相信他們「轉換」的圖像是真實的。另外引入了循環一致性損失函數(cycle consistency loss)來保證在通過兩個轉換網絡之後圖像保持不變。

 

(旁邊注釋)我們使用CycleGAN方法為我們最近的一篇論文在訓練數據上生成逼真現場合成圖像,結果看起來很炫:

這篇論文的視覺效果令人驚嘆,我強烈建議您去GitHub上多看些轉換示例。 我對這篇論文尤其感興趣,因為它不像許多以前的方法,它學會在不同類的圖像集之間進行轉換,為可能不存在匹配圖像或者圖像難以獲得的應用程式打開大門。除此之外,代碼非常易於使用和實驗,這也說明了方法的魯棒性和高質量的代碼實現。

 

 

2. 最優雅:使用WASSERSTEIN 距離更好地進行神經網絡訓練

 

本文提出了通過使用一個稍微不同的目標函數來訓練生成敵對網絡。新提出的目標函數比標準GAN的目標函數訓練起來要穩定得多,因為它避免了在訓練過程中消失梯度。

 

(旁邊注釋)從Wasserstein GAN論文中摘得的這個圖片顯示了所提出的WGAN目標函數如何避免出現在標準GAN中的梯度消失的問題。

 

使用這個修改後的目標函數,作者還避免了一個稱為模式崩潰mode collapse的問題,在標準GAN中,這個問題體現為只從可能輸出的一個子集中產生樣本。 例如,如果GAN正在訓練產生手寫數字4和6,則GAN可能只能產生4,並且在訓練期間無法逃離該局部最小值。Wasserstein GAN通過解決訓練目標中梯度的消失來設法避免這個問題。

 

(旁邊注釋)事實上,作者聲稱:「我們還沒有在實驗中看到過WGAN算法模式崩潰的證據。」

這篇論文是非常自成體系的:

(1)作者首先提出一個簡單的想法

(2)從數學上解釋為什麼它可以提高當前結果

(3)用一個令人印象深刻的結果去證明它的有效性。 此外,作者提出的改變在幾乎所有流行的深度學習框架中都很容易實現,使得所提出的改變是切實可行的。

(旁邊注釋)即使我們一直在朝著神經網絡越來越好的方向前進,但值得記住的是,仍然有可能通過簡單的改進來產生巨大的變化。 

 

3. 最有用的:simGAN---使用GAN進行無監督模擬訓練數據細化

   

標題:Learning from Simulated and Unsupervised Images through Adversarial Training 通過對抗訓練從模擬和無監督的圖像中學習

作者:Ashish Shrivastava,Tomas Pfister,Oncel Tuzel,Josh Susskind,王文達,Russ Webb(蘋果公司  CVPR 2017 best paper)

目標:利用真實數據來「修正」合成數據的數據分布,從而使得人工合成的圖片可以用來訓練

 

收集真實的數據可能既困難又耗時。因此,許多研究人員經常使用仿真工具(類似於OpenAI gym的工具對尤其需要大量訓練數據的深度強化學習代理特別有用),其能夠產生幾乎無限量的有標籤訓練數據。然而,大多數模擬數據對於在真實數據上操作訓練的深度學習系統是不夠魯棒的。

 

為了克服這個限制,本文基於生成對抗網絡(GAN)使用未標記的真實圖像來改進標記的模擬圖像。它們訓練一個「refinement network」來欺騙一個判別器,該判別器被訓練成能夠區分細緻的模擬圖像和真實圖像。由於refinement network和分類器是聯合訓練的,細緻的模擬圖像開始顯得非常逼真:

 

當simGAN被提出來時,我立即對這篇論文感興趣,因為它提出了第一個縮短模擬和真實數據差距的實用方法。關鍵的是該算法是無監督的,這意味著用戶不需要手動標記真實數據。對於深度學習應用來說,數據是最重要的,然而像我這樣的大多數學術實驗室沒有資源來生成快速解決新研究領域問題所需的大量數據:如果您正在嘗試解決的問題不存在公共數據集,則你將自己收集和標記該數據。 本文的言外信息是,只要你有一個試圖解決問題的模擬器,你應該能夠生成你所需要的訓練數據。

 

4. 最引人關注的是:谷歌的圍棋AI無需人類經驗的學習

  

標題:在沒有人類知識的情況下掌握Go遊戲

Mastering the game of Go without human knowledge

作者:David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, Yutian Chen, Timothy Lillicrap, Fan Hui, Laurent Sifre, George van den Driessche, Thore Graepel & Demis Hassabis (from DeepMind)

目標:在沒有任何人類知識的情況下學會玩圍棋遊戲

 

如果缺少DeepMind在過去一年中取得的驚人成就,那麼2017年的最佳名單將是不完整的,特別是考慮到DeepMind在AI圍棋程序AlphaGo的成績。我在這裡就不花過多的篇幅稱讚他們的成就了,因為你們中大多數人可能對DeepMind在2016年的成果,包括他們在論文中是如何構建系統的,都非常熟悉。然而,2017的這個系統是以專家級的人類圍棋作為起點。

最近的「AlphaGo zero這篇論文沒有使用任何人類的先驗知識或對弈棋局: 只通過「自己對弈(self-play)」來進行訓練。這是通過改進的強化學習過程實現的,在這種訓練過程中,策略被更新為對比賽的前向模擬(forward simulations)。用於引導搜索的神經網絡在遊戲中得到改善,使訓練速度更快。AlphaGo zero超過了AlphaGo Lee的表現,在2016年的比賽中,只通過40個小時的「自我對弈」學習,就擊敗了李世石(Lee Sedol)

 

這張摘自AlphaGo Zero論文的圖表,圖顯示了AlphaGo Zero的性能。 經過幾個星期的訓練,AlphaGo Zero勝過所有其他圍棋程序。

 

儘管我對這篇論文的興趣主要集中在工程層面,但AlphaGo採用的傳統方法和深度學習方法的混合方法也很令我興奮,在這種方法中,增加的蒙特卡洛樹搜索使得系統性能優於單獨的神經網絡方法。因為我本身研究機器人,對這種方法情有獨鍾:使用傳統算法作為決策的主體,並使用機器學習來提高性能或克服計算限制。這篇論文和2016 AlphaGo論文寫的都很棒,技術細節和見解都非常到位。這些文章值得詳細閱讀。

▌5. 最值得思考的是:深度圖像先驗Deep Image Prior

 

標題:深度圖像先驗(Deep Image Prior)

作者:Dmitry Ulyanov, Andrea Vedaldi, and Victor Lempitsky (from Skolkovo Institute of Science and Technology and University of Oxford)

目標:理解神經網絡模型中先驗的作用

 

在完成這個2017年論文清單時,我發現一個比較有趣的論文,關於這篇論文我和我的同事聊了好幾天。這篇文章的作者並沒有用大量的數據來訓練深度神經網絡,而是探索如何使用神經網絡本身作為先驗來幫助我們處理一些流行的圖像處理任務。從一個未訓練的神經網絡開始,用作者的話來說「在神經網絡的參數空間中搜索答案,而不是在圖像空間中搜索答案」,並且避免將大型數據集中預訓練神經網絡。

 

 

上圖中的圖片摘自深度圖像先驗的論文(Deep Image Prior paper),圖中展示了應用他們的技術移除JPEG壓縮偽影的效果。最左邊是目標圖像,它經過JPEG壓縮,有很多壓縮瑕疵。網絡的目標是學會輸出它。在100次迭代後,網絡學會了輸出很模糊的形體。在2400次迭代後,網絡學會了輸出一張清晰光滑的高質量圖片。在50000次迭代後,網絡才學會了輸出原圖,但是在此之前會首先發現沒有任何偽影的更自然的圖像; 網絡的結構是找到一個更自然的圖像比找到一個損壞的圖像更容易。更多例子可以查看論文項目的頁面(https://dmitryulyanov.github.io/deep_image_prior )。

 

我幾乎是立刻被這個結果吸引:神經網絡結構對於我們的數據是有哪些先驗的認識?我們怎樣才能更好地理解這些先驗呢?我們如何利用這種方法來建立更好的網絡模型?當然,我們可以隱約地感受到我們的網絡結構可能也會對我們的數據造成的一些限制:比如把「斑馬」的圖像都被顛倒了,那麼CycleGAN方法可能不會有效地工作。這也給我們的神經網絡模型帶來挑戰,同時提供了一些未來研究方向。

 

▌結論

 

很明顯,本文總結的列表並不全面,我歡迎您評論並舉出您喜歡的文章。

 

參考連結:

http://cachestocaches.com/2017/12/favorite-deep-learning-2017/

http://gjstein.me/

相關焦點

  • 【乾貨】2017年深度學習必讀31篇論文(附論文下載地址)
    年即將擦肩而過,Kloud Strife在其博客上盤點了今年最值得關注的有關深度學習的論文,包括架構/模型、生成模型、強化學習、SGD & 優化及理論等各個方面,有些論文名揚四海,有些論文則非常低調。
  • 2017年深度學習必讀31篇論文(附下載地址)
    本文長度為4100字,建議閱讀6分鐘本文為你盤點今年最值得關注的深度學習相關論文
  • 2017深度學習優秀論文盤點 | 資源
    這些論文在他們每周的Imperial Deep Learning Reading Group上經過大量的討論,但作者表示他這裡的梳理仍不夠全面,因為今年僅僅是有關GAN的論文就超過了1660篇,他努力將內容範圍縮小到每兩周一篇,具體的論文如下所列:今年關於網絡架構的文章已經少得多了,好多東西都或多或少的穩定了
  • ICLR2018 | 深度學習頂會見聞,乾貨資源都在這裡(附源碼、論文連結)
    雖然僅僅舉辦過六屆,ICLR已經是深度學習領域的頂級會議,得到了業界的廣泛認可。在論文提交時間上,有一個有趣的現象,1003篇論文中,有近800篇論文是截止時間前24小時提交的,其中最後半小時提交了200多篇,驗證了DDL是第一生產力是全球通行的,哈哈哈,不過也說明大家精益求精吧。
  • 【乾貨薈萃】機器學習&深度學習知識資料大全集(一)(論文/教程/代碼/書籍/數據/課程等)
    適合新手入門打基礎, 也適合老手溫故而知新. 比起MLAPP/PRML等大部頭, 也許這本你更需要!具體內容推薦閱讀:http://intelligent-optimization.org/LIONbook/介紹:作者是來自百度,不過他本人已經在2014年4月份申請離職了。但是這篇文章很不錯如果你不知道深度學習與支持向量機/統計學習理論有什麼聯繫?那麼應該立即看看這篇文章.
  • 深度學習全網最全學習資料匯總之入門篇
    下面進入本文的正題。要入門深度學習,首選的一個教程是來自臺灣大學電機系李宏毅教授的演講 PPT。該 PPT 共計301頁,源於 IEEE DSC 2016 系列活動,當時打出的標題是「一天搞懂深度學習」。該課程非常適合初學者,以最簡單易懂的圖示和文字闡述了深度學習的基本原理、深度學習模型的各種訓練小技巧、遞歸神經網絡和一些常見的深度學習應用。
  • 知乎熱議:深度學習領域,你心目中 idea 最驚豔的論文是哪篇?
    知乎熱議:深度學習領域,你心目中 idea 最驚豔的論文是哪篇?❝科研路上我們往往會讀到讓自己覺得想法很驚豔的論文,心中對不同的論文也會有一個排名。希望本問題下大家能分享自己心目中的排名,同時相互學習。拋磚引玉,我個人認為最驚豔的一篇論文是Hourglass作者的Associate Embedding(姿態識別)發表於NIPS 2017。
  • 機器學習和深度學習引用量最高的20篇論文(2014-2017)
    Pham機器之心編譯參與:邵明、黃小天機器學習和深度學習的研究進展正深刻變革著人類的技術,本文列出了自 2014 年以來這兩個領域發表的最重要(被引用次數最多)的 20 篇科學論文,以饗讀者機器學習,尤其是其子領域深度學習,在近些年來取得了許多驚人的進展。重要的研究論文可能帶來使全球數十億人受益的技術突破。這一領域的研究目前發展非常快,為了幫助你了解進展狀況,我們列出了自 2014 年以來最重要的 20 篇科學論文。
  • 深度學習頂會「無冕之王」 ICLR 2017錄用結果出爐,精選13篇乾貨亮點
    來源:知乎  作者授權轉載作者:魏秀參【新智元導讀】素有深度學習屆頂會「無冕之王」之稱的 ICLR 2017公布了會議錄用結果。作者從所有錄用論文中精選了十三篇乾貨以饗讀者。今年 ICLR 中涉及 GAN 和 Reinforcement learning 的工作巨多,間接反映了無監督學習和強化學習今後一段時間內在DL領域內的勢頭。
  • NIPS 2017 深度學習論文集錦 (2)
    本文是NIPS 2017 深度學習論文集錦第二篇,第一篇是NIPS 2017 深度學習論文集錦 (1)本文是對上文的續
  • 六張圖帶你全方位看懂EMNLP 2017,神經網絡和深度學習投稿佔總論文...
    整體來說,總共有1509篇初始投稿,審核了1418篇,收錄323篇,接收率約23%。此外大會還收錄了9篇TACL論文。在提交的全部論文中,如果按關鍵字來給這些論文分類的話,分別選取神經網絡、深度學習、信息提取、語義學、文本挖掘、機器翻譯、表示學習、語義相似、文本分類等9個關鍵字。
  • 數學老師怎樣寫出一篇60分的教學論文?
    我在查閱時,似乎總能發現有部分同事寫出在市裡或區裡獲獎的論文,而且有幾個還是常客。論文我也想寫,但之前一直覺得這是一個高大上的東西,豈是自己這種凡夫俗子能夠駕馭的!不過想想,那些論文獲獎的同事,難道都是因為對教育和教學有很深的道行和功力嗎?
  • 數學老師怎樣寫出一篇60分的教學論文?
    我在查閱時,似乎總能發現有部分同事寫出在市裡或區裡獲獎的論文,而且有幾個還是常客。論文我也想寫,但之前一直覺得這是一個高大上的東西,豈是自己這種凡夫俗子能夠駕馭的!不過想想,那些論文獲獎的同事,難道都是因為對教育和教學有很深的道行和功力嗎?懷著一顆好奇和學習的心,我收集了一些獲獎的論文,仔細閱讀了幾遍,發現寫一篇90分的論文的確不容易,但是寫一篇60分的論文,還是可以做到的。
  • 【PyTorch 挑戰 TensorFlow】28303 篇 arXiv 論文看深度學習 6 大趨勢
    本文是他在 OpenAI 擔任研究員期間所寫,陳述了他通過分析機器學習論文資料庫arxiv-sanity裡面的28303篇論文裡面的高頻關鍵詞所發現的有趣的結論。你是否用過谷歌趨勢(Google Trends)(https://trends.google.com/trends/?cat=)呢?它的功能很酷:只需要輸入關鍵詞,就可以看到該詞的搜索量隨時間變化的情況。
  • 8篇論文深入學習深度估計:深度預測;自我運動學習;觀看《冰雪奇緣...
    :這篇文章介紹了幾篇具有指導意義的論文,助你深入了解何為深度估計。深度估計是一種計算機視覺任務,旨在從2D圖像中估計深度。這個任務輸入RGB圖像,輸出深度圖。深度圖包含了從視圖看圖像中的被攝物體距離的信息。深度估計的應用包括:平滑圖像的模糊部分、更好地渲染3D場景、自動駕駛、機器人抓取、機器人輔助手術、電影中的2D到3D的自動轉換以及3D計算機圖形學中的陰影映射等。在這篇指南中,我們將介紹幾篇通過深度學習來解決這些問題的論文。
  • 近200篇機器學習&深度學習資料分享
    適合新手入門打基礎, 也適合老手溫故而知新. 比起 MLAPP/PRML 等大部頭, 也許這本你更需要!具體內容推薦閱讀:http://intelligent-optimization.org/LIONbook/《深度學習與統計學習理論》介紹:作者是來自百度,不過他本人已經在 2014 年 4 月份申請離職了。
  • 126篇殿堂級深度學習論文分類整理 從入門到應用 | 乾貨
    如果你有非常大的決心從事深度學習,又不想在這一行打醬油,那麼研讀大牛論文將是不可避免的一步。而作為新人,你的第一個問題或許是:「論文那麼多,從哪一篇讀起?」但好消息來了——為避免初學者陷入迷途苦海,暱稱為 songrotek 的學霸在 GitHub 發布了他整理的深度學習路線圖,分門別類梳理了新入門者最需要學習的 DL 論文,又按重要程度給每篇論文打上星星。截至目前,這份 DL 論文路線圖已在 GitHub 收穫了近萬顆星星好評,人氣極高。
  • 如何科學開啟你的深度學習論文閱讀生涯
    OpenAI研究者達裡奧·阿莫迪(Dario Amodei)對這個問題的回答是:「為了驗證你是否適合在人工智慧安全或者機器學習領域工作,請快速嘗試使用各種模型。在近期的一篇論文中找到一個機器學習模型,運用這個模型,並嘗試讓它快速運行起來。」這些都說明閱讀研究論文對於進一步理解該領域至關重要。在深度學習領域,每個月都會有數百篇論文被發表。
  • 碩士生兩年發14篇論文!一作10篇,4篇頂刊
    回顧過去的學習生活,令齊同學印象最深刻的並非是收穫榮耀的高光時刻,而是在「看文獻、做科研、寫論文」循環中推進的每一步。專題,從海量論文中篩出最活躍教授及研究熱點,助力找到好導師、選好題、及保持創新。目前分享2400+篇原創文章,11萬+小夥伴在這裡一起交流學習,歡迎投稿,感興趣的趕快關注吧!
  • 【乾貨薈萃】機器學習&深度學習知識資料大全集(二)(論文/教程/代碼/書籍/數據/課程等)
    【導讀】轉載來自ty4z2008(GItHub)整理的機器學習&深度學習知識資料大全薈萃,包含各種論文、代碼、視頻、書籍、文章、數據等等。是學習機器學習和深度學習的必備品!昨天介紹了第一篇:【乾貨薈萃】機器學習&深度學習知識資料大全集(一)(論文/教程/代碼/書籍/數據/課程等)今天第二篇:   介紹:使用卷積神經網絡的圖像縮放