還記得Wasserstein GAN嗎?不僅有Facebook參與,也果然被 ICML 接收...

2021-01-08 雷鋒網

雷鋒網 AI 科技評論按:Facebook列出了自己的9篇 ICML 2017論文,Wasserstein GAN 赫然位列其中。

ICML 2017 仍然在雪梨火熱進行中,Facebook 研究院今天也發文介紹了自己的 ICML 論文。Facebook有9篇論文被 ICML 2017接收,這些論文的主題包括語言建模、優化和圖像的無監督學習;另外 Facebook 還會共同參與組織 Video Games and Machine Learning Workshop。

曾掀起研究熱潮的 Wasserstein GAN

在9篇接收論文中,Facebook 自己最喜歡的是「Wasserstein Generative Adversarial Networks」(WGAN)這一篇,它也確實對整個機器學習界有巨大的影響力,今年也掀起過一陣 WGAN 的熱潮。

Ian Goodfellow 提出的原始的 GAN 大家都非常熟悉了,利用對抗性的訓練過程給生成式問題提供了很棒的解決方案,應用空間也非常廣泛,從此之後基於 GAN 框架做應用的論文層出不窮,但是 GAN 的訓練困難、訓練進程難以判斷、生成樣本缺乏多樣性(mode collapse)等問題一直沒有得到完善解決。 這篇 Facebook 和紐約大學庫朗數學科學研究所的研究員們合作完成的 WGAN 論文就是眾多嘗試改進 GAN、解決它的問題的論文中具有裡程碑意義的一篇。

WGAN 的作者們其實花了整整兩篇論文才完全表達了自己的想法。在第一篇「Towards Principled Methods for Training Generative Adversarial Networks」裡面推了一堆公式定理,從理論上分析了原始GAN的問題所在,從而針對性地給出了改進要點;在這第二篇「Wasserstein Generative Adversarial Networks」裡面,又再從這個改進點出發推了一堆公式定理,最終給出了改進的算法實現流程。

WGAN 成功地做到了以下爆炸性的幾點:

徹底解決GAN訓練不穩定的問題,不再需要小心平衡生成器和判別器的訓練程度

基本解決了collapse mode的問題,確保了生成樣本的多樣性 

訓練過程中終於有一個像交叉熵、準確率這樣的數值來指示訓練的進程,這個數值越小代表GAN訓練得越好,代表生成器產生的圖像質量越高(如題圖所示)

以上一切好處不需要精心設計的網絡架構,最簡單的多層全連接網絡就可以做到

而改進後相比原始GAN的算法實現流程卻只改了四點:

所以數學學得好真的很重要,正是靠著對 GAN 的原理和問題的深入分析,才能夠找到針對性的方法改進問題,而且最終的呈現也這麼簡單。( WGAN詳解參見雷鋒網 AI 科技評論文章 令人拍案叫絕的Wasserstein GAN)

WGAN 論文今年1月公布後馬上引起了轟動,Ian Goodfellow 也在 reddit 上和網友們展開了熱烈的討論。不過在討論中,還是有人反映 WGAN 存在訓練困難、收斂速度慢等問題,WGAN 論文一作 Martin Arjovsky 也在 reddit 上表示自己意識到了,然後對 WGAN 做了進一步的改進。

改進後的論文為「Improved Training of Wasserstein GANs」。原來的 WGAN 中採用的 Lipschitz 限制的實現方法需要把判別器參數的絕對值截斷到不超過固定常數 c,問題也就來自這裡,作者的本意是避免判別器給出的分值區別太大,用較小的梯度配合生成器的學習;但是判別器還是會追求儘量大的分值區別,最後就導致參數的取值總是最大值或者最小值,浪費了網絡優秀的擬合能力。改進後的 WGAN-GP 中更換為了梯度懲罰 gradient penalty,判別器參數就能夠學到合理的參數取值,從而顯著提高訓練速度,解決了原始WGAN收斂緩慢的問題,在實驗中還第一次成功做到了「純粹的」的文本GAN訓練。(WGAN-GP詳解參見雷鋒網 AI 科技評論文章 掀起熱潮的Wasserstein GAN,在近段時間又有哪些研究進展?)

另外八篇論文

Facebook 此次被 ICML 2017 接收的9篇論文裡的另外8篇如下,歡迎感興趣的讀者下載閱讀。

High-Dimensional Variance-Reduced Stochastic Gradient Expectation-Maximization Algorithm

An Analytical Formula of Population Gradient for two-layered ReLU network and its Applications in Convergence and Critical Point Analysis

Convolutional Sequence to Sequence Learning

Efficient softmax approximation for GPUs

Gradient Boosted Decision Trees for High Dimensional Sparse Output

Language Modeling with Gated Convolutional Networks

Parseval Networks: Improving Robustness to Adversarial Examples

Unsupervised Learning by Predicting Noise

雷鋒網(公眾號:雷鋒網) AI 科技評論會繼續帶來更多精彩論文和現場演講報導,請繼續關注。

相關文章:

掀起熱潮的Wasserstein GAN,在近段時間又有哪些研究進展?

令人拍案叫絕的Wasserstein GAN

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • ICML 2018 | 清華排名國內居首:大會論文接收情況一覽
    本文介紹了在瑞典斯德哥爾摩舉行的機器學習技術國際會議(ICML)中接收論文的情況。[ 導讀 ] ICML 2018 於 7 月 10 日在瑞典斯德哥爾摩舉行,今日該會議公布了接收論文列表,本次會議共收到 2473 篇論文,621 篇被接收,接收率為 25.1%(與去年基本持平)。
  • ICML 2019論文接收結果可視化:清華、北大、南大榜上有名
    大會共收到3424篇論文投稿,其中774篇被接收(接收率為22.6%)。近日,博世的分析人員根據接收論文列表做出了一份可視化圖表,從中可以看出各機構和作者的論文貢獻情況。接收論文列表:https://icml.cc/Conferences/2019/AcceptedPapersInitial排名前50的論文貢獻機構下圖顯示了ICML 2019接收論文貢獻排名前50的機構。排名以機構貢獻的論文總數為準,至少有一名作者隸屬於該機構,因此一篇論文可能出現在多個機構中。
  • ICML進行時|一文看盡獲獎論文及Google、Facebook、微軟、騰訊的最新科研成果
    最好的論文還將被邀請參加《機器學習雜誌》。▌國內未來可期而今年騰訊 AI Lab也是取得了十餘篇入選的好成績,相比去年的 4 篇入選,這個成績不僅是國內企業研究、高校研究的榜首,在國際排名上也是有了很大的進步。
  • 資源 | NIPS 2017 Spotlight論文Bayesian GAN的TensorFlow實現
    選自GitHub作者:Andrew Gordon Wilson 機器之心編譯參與貝葉斯 GAN 的主要特性有:(1)在半監督學習問題上的準確預測;(2)對優秀性能的最小幹預;(3)響應對抗反饋的推斷的概率公式;(4)避免模式崩潰;(5)展示多個互補的生成和判別模型,形成一個概率集成(probabilistic ensemble)。
  • 經典論文復現 | ICML 2017大熱論文:Wasserstein GAN
    為此,PaperWeekly 聯手百度 PaddlePaddle 共同發起了本次論文有獎復現,我們希望和來自學界、工業界的研究者一起接力,為 AI 行業帶來良性循環。原始GAN存在的問題原始的 GAN 很難訓練,訓練過程通常是啟發式的,需要精心設計的網絡架構,不具有通用性,並且生成器和判別器的 loss 無法指示訓練進程,還存在生成樣本缺乏多樣性等問題。 在 WGAN 前作中,論文作者分析出原始 GAN 兩種形式各自存在的問題,其中一種形式等價於在最優判別器下,最小化生成分布與真實分布之間的 JS 散度。
  • 美國霸榜ICML,佔據3/4被接收論文,中國論文數不到美國兩成
    Masashi Sugiyama來自理化學研究所和東京大學,他有高達11篇文章被會議接收。排在他後面的有來自DeepMind的Michal Valko和加州大學伯克利分校的Michael Jordan以及谷歌/阿爾伯塔大學的Dale Schuurmans。通過把機構參與的文章數量加在一起,可以看到的根據組織發表的文章數量的排序結果。下面節選的是排名前30的機構。
  • 教程 | 在Keras上實現GAN:構建消除圖片模糊的應用
    選自Sicara Blog作者:Raphaël Meudec機器之心編譯參與Keras 代碼地址:https://github.com/RaphaelMeudec/deblur-gan此外,請查閱 DeblurGAN 的原始論文(https://arxiv.org/pdf/1711.07064.pdf)及其 Pytorch 版本實現:https://github.com/KupynOrest/DeblurGAN/。
  • 一文速覽ICML2020高引論文與華人作者
    ICML AMiner:https://www.aminer.cn/conf/icml2020ICMl2020高引用量的論文Aminer 開發的 ICML 2020 頂會系統給出了本屆會議引用量排名靠前的論文。
  • 能生成Deepfake也能診斷癌症,GAN與惡的距離
    但是它的爆火不僅是由於這個技術出神入化的好用,還因為由他催生的相關應用導致了各種倫理道德問題。最受關注的當然是Deepfake(深度偽造),這款操作容易且效果完美的換臉應用,讓人們談「GAN」色變。/你知道比一個GAN更好的網絡是什麼嗎?
  • 掀起熱潮的Wasserstein GAN,在近段時間又有哪些研究進展?
    在原來的論文中,這個限制具體是通過weight clipping的方式實現的:每當更新完一次判別器的參數之後,就檢查判別器的所有參數的絕對值有沒有超過一個閾值,比如0.01,有的話就把這些參數clip回 [-0.01, 0.01] 範圍內。通過在訓練過程中保證判別器的所有參數有界,就保證了判別器不能對兩個略微不同的樣本給出天差地別的分數值,從而間接實現了Lipschitz限制。
  • FaceBook推薦好友精準嗎?
    最近facebook洩密事件鬧得非常厲害,其實公布出來的,也只是冰山一角而已,其實這個沒辦法的,相反既然它設計成了這樣的,大家都這樣玩,那麼我們也正好利用一下它。前面的文章我們有講到,加同行,或者競爭對手為我們的好友,這樣我們就可以獲取到同行的好友,或者facebook就會把我們定位靠向我們需要的那樣。但是僅僅是加同行,遠遠不夠。
  • Facebook在香港佔中事件中的作用及成因——基於訪談的總結分析
    其次,社會化媒體為人們提供了一種以較低成本參與社會運動的方式,人們在facebook中表達自己對當局的不滿或對社會運動的支持比其親身參與要容易的多。 在訪談中,不同身份的受訪者都會強調香港人是非常「現實」的,特別是社會的中上層人士不會讓參與社會運動來影響自己的工作生活,在這種情況下,在facebook中宣洩不滿的情緒並支持佔中的發展就成了一種性價比很高的參與運動的方式。很多受訪者指出,他們身邊存在不少在facebook中非常激進但並不實際參與佔中的人,這種現象在已經工作的群體中更加明顯。
  • 數千人頂會的乾貨,ICML、CVPR2019演講視頻資源在此
    機器之心整理 參與:李亞洲 不久之前,兩大人工智慧國際頂會 ICML 2019、CVPR 2019 相繼在美國加州長灘落幕。沒能現場參會如何學習大會內容?近日,這兩場大會的相關視頻已經放出,感興趣的讀者可通過視頻學習。
  • 清華大四本科生2篇一作論文入選ICML 2020,後浪果然翻湧
    國內的企業,也開始逐漸發力,除了以往的BAT以外,還見到了華為、字節、商湯的身影。其中阿里11篇,百度9篇,華為5篇。當然,也還有其他機構表現的十分優異,我們就來看看名單吧。而去年MIT以47篇位列學校榜單第一,加州大學伯克利分校有45篇,史丹福大學有40篇。而上次躋身前五的卡內基梅隆大學,這次論文篇數有所下降,共有28篇,而去年有35篇論文上榜。
  • ICML 2020 大陸論文量居前三,各獎項出爐!
    重磅乾貨,第一時間送達本文轉載自:機器之心  |  參與此次會議共收到 4990 篇論文,接收論文 1088 篇,接收率達 21.8%。與往年相比,接收率逐年走低。剛剛,ICML 2020 大會放出了傑出論文獎和傑出論文榮譽提名獎,一篇發表於 2009 年的論文獲得此次大會的時間檢驗獎。論文1:On Learning Sets of Symmetric Elements
  • ICML 2019必看!87頁超強幹貨博士筆記總結
    接收論文列表:https://icml.cc/Conferences/2019/AcceptedPapersInitial那麼ICML 2019會場都有誰上臺演講了?他們都講了什麼?此外,研究人員還同時發布了研究中所使用的代碼和上萬個預訓練模型,並封裝了 disentanglement_lib 供研究者進行實驗復現和更深入的探索。
  • 擁有FB.com還不夠?Facebook收購域名F8.com
    其不僅有品相優勢,價格相對兩數字域名、兩字母域名都便宜了許多,近年來逐漸成為終端、投資人矚目的焦點。雜域名未來會跟品相一般的兩聲差不多,還有很多上漲空間,其本人在今年7月份還以超隨著更多細節的發現,小編查到,facebook有個「Facebook F8 開發者大會」
  • 近期必讀的六篇 ICML 2020【對比學習】相關論文
    為了理解什麼使對比預測任務能夠學習有用的表示,我們系統地研究了我們框架的主要組成部分。我們表明:(1)數據增強部分在定義有效的預測任務中起著關鍵作用;(2)在表示和對比損失之間引入可學習的非線性變換大大提高了學習表示的質量;(3)與監督學習相比,對比學習受益於更大的batch和更多的訓練。結合這些發現,我們能夠在ImageNet上顯著優於以往的自監督和半監督學習方法。
  • TF - GAN入門:TensorFlow 2.0 的輕量級 GAN 庫
    具影響力的論文:https://github.com/tensorflow/gan#who-uses-tf-gan今天,各個推出 TF-GAN 的新版本。此版本擁有諸多升級和新功能:Cloud TPU 支持:您現在可以使用 TF-GAN 在 Google 的 Cloud TPU 上訓練 GAN。
  • 不被Hinton認同,否定同行成果,谷歌這篇研究拿下ICML最佳論文
    今年,共有3424篇論文提交到這場一年一度的機器學習國際頂會上,大會共接收了774篇。有兩篇論文,從千軍萬馬中脫穎而出,成為ICML 2019最佳論文。這份大獎花落誰家?德國博世公司抓取了ICML 19官網上的接收數據,將論文的接受比例、貢獻最多的機構以及貢獻最大的個人作者統計了出來。不少國內高校和學者榜上有名。