專訪Ian Goodfellow:不積跬步無以成就GAN

2021-02-15 論智

編者按:近日,NeuroAscent聯合創始人、數據科學家Sanyam Bhutani對Ian Goodfellow博士進行了一次採訪。在他們的對話中,深度學習研究員、GAN之父Goodfellow回顧了自己當年的科研經歷,簡要介紹了自己對於科研、行業和未來發展的一些看法。

Sanyam Bhutani:您好,GAN之父,感謝您願意接受我的採訪。

Ian Goodfellow:非常歡迎!非常感謝你願意採訪我,以及撰寫博客來幫助其他學生。

Sanyam Bhutani:作為Google AI的研究科學家,同時也是生成對抗網絡(GAN)的發明人,您能向我們的讀者透露一下自己的科研經歷嗎?比如您是什麼時候開始研究GAN的?是什麼讓您對深度學習產生了興趣?

Ian Goodfellow:我從本科開始就已經在研究人工智慧了,只不過那時機器學習主要是SVM、boosted tree等。在課餘,我也是遊戲編程的業餘愛好者,會用GLslang製作一些小項目。一次,我的朋友Ethan Dreyfuss(他現在在Zoox工作)告訴了我兩件事:Geoff Hinton在谷歌的技術演講上提到了深度信念網絡(DBN);CUDA GPU。

我當即就意識到深度學習能彌補SVM帶給我的很多缺憾。一方面,SVM在設計模型上不夠自由,投入更多數據資源後,它不會直接變得更「智能」,但深度神經網絡可以隨著投入數據的增加不斷提升性能。另一方面,CUDA GPU能允許我訓練更大的神經網絡,由於有遊戲編程經驗,我知道該怎麼編寫GPU代碼。

就在那個寒假,我和Ethan在史丹福大學搭好了第一臺CUDA計算機,並用它開始訓練玻爾茲曼機。

Sanyam Bhutani:正如您所講的,你只花了一晚上就寫出了第一個GAN,但一般在研究上作出突破都至少需要幾個月甚至幾年。您能談談自己為什麼能在一夜之間就實現突破嗎?

Ian Goodfellow:如果你有一個和新想法相關的高質量codebase(代碼庫),實現這個想法其實很容易。早在幾年前,我和同事就已經圍繞Theano和Pylearn2的庫做了很多工作,它們都是第一個GAN的構建基礎。早年有篇論文叫Maxout Networks,我們曾仿照它自己寫了個MNIST分類器,到訓練GAN時,我們直接複製了分類器的代碼,論文的超參數在GAN裡也很好用,所以我們基本沒做什麼更新。再加上在MNIST上訓練用時很短,我認為第一個MNIST GAN只花了我大約一小時的時間。

Sanyam Bhutani:自發明以來,我們在GAN上看到了很多可喜的進展,您最欣賞其中的哪一個呢?

Ian Goodfellow:這很難選。當Emily Denton和Soumith Chintala提出LAPGAN的時候,我第一次意識到GAN的廣大前景。當然,LAPGAN只是暴風雨前的一朵小浪花。

Sanyam Bhutani:除了GAN,你最好看深度學習的哪個領域呢?

Ian Goodfellow:我在研究模型對於對抗樣本的穩健性上花了不少時間。為了把機器學習用於實際應用,確保它的安全性非常重要。我也希望這項研究能幫我們更好地理解什麼是機器學習。

Sanyam Bhutani:對於那些有興趣從事深度學習的讀者和初學者,對於那些夢想著有一天能進入Google工作的人,您有什麼好的建議嗎?

Ian Goodfellow:首先要學習基礎知識:編程、debug、線性代數、概率論。大多數高級研究項目最看重一個人的基礎知識掌握水平,而不是他對先進技術的了解程度。舉個例子,今天我就在調試內存洩露,因為它讓我沒法實驗,我也在加快軟體庫的單元測試,以便嘗試更多研究思路。當我還在讀本科、讀博士的時候,我經常會向吳恩達討教,他建議我一定要徹底掌握這些基礎知識。那時我覺得這些工作很無聊,希望他能多跟我說說超實數之類的東西,但現在幾年過去了,我覺得他的建議真的是正確的。

Sanyam Bhutani:您能跟我們說說您在Google的一天是什麼樣的嗎?

Ian Goodfellow:對於不同人,甚至是同一個人的不同人生階段,這種體驗是非常不一樣的。有時候,我就是寫寫代碼、跑跑實驗、讀幾篇論文,或者寫寫書。有時候,我就需要花大多數時間參加幾個不同的會議,檢查許多不同的項目。現在我在檢查別人工作上花去的時間要佔60%,處理自己的項目則佔40%。

Sanyam Bhutani:有一種普遍想法是,如果想在深度學習中取得重大成果,一個必要前提是有大量資源。您是怎麼看待這個觀點的呢?你是否覺得存在那麼一個人,他沒有Google能提供的那麼多資源,但他最終做出了突破性貢獻?

Ian Goodfellow:我同意,當然存在這麼一個人,但他首先得選好合適的研究項目。比如證明一個有趣的理論結果可能不需要計算資源,設計一個只需極少數據但性能好、通用性強的算法也不需要超大型數據集。但是,如果你沒有足夠多的硬體做並行計算,你最好不要去挑戰構建全世界訓練速度最快的ImageNet分類器。

Sanyam Bhutani:鑑於研究成果的爆炸性增長,您是怎麼讓自己與時俱進的?

Ian Goodfellow:不久前,我覺得自己已經掌握了深度學習的所有知識,尤其是在我編書的時候。但現在我做不到了,我真的只能關注和自己的研究有關的主題,我甚至都說不清GAN發生了什麼變化。

Sanyam Bhutani:您覺得機器學習被高估了嗎?

Ian Goodfellow:就其長期潛力而言,我實際上認為機器學習還是被低估了,因為外行人還沒有像我們一樣對它津津樂道。但我認為機器學習確實經常被「錯誤炒作」:人們會誇大現階段這種技術的可能性,或者誇大個別項目的進展等。

Sanyam Bhutani:您認為非機器學習專業的博士/碩士能否為深度學習領域做出貢獻?

Ian Goodfellow:我認為培養專業知識很重要,但我不認為博士學位是獲得這種專業知識的唯一途徑。最優秀的博士生往往都是自學型人才,只要有足夠時間學習,他們也能做到邊工作邊成長。

Sanyam Bhutani:最後,您能給那些對深度學習感到不知所措的初學者一些建議嗎?

Ian Goodfellow:從一個簡單項目開始,重新實現那些你已經了解,而且知道肯定能成的東西,比如CIFAR-10分類器。很多人都會想一開始就直接去做一些新的事情,然後項目失敗了,你也不知道是項目本身行不通,是你自己的思路有問題,還是你對一些關鍵點的理解有誤。我覺得有一個可以實踐的項目很重要:深度學習有時就像開飛機,你可以讀很多東西,但你也要親自上手體驗並發現另一些直觀的經驗。

原文地址:hackernoon.com/interview-with-deep-learning-researcher-and-the-ganfather-dr-ian-goodfellow-cd300863ecff

相關焦點

  • GAN之父Ian Goodfellow:那個賦予機器想像力的人類
    Ian Goodfellow朋友們提出的方案是對那些組成圖片的元素進行複雜的統計分析以幫助機器自己生成圖片。這需要進行大量的數據運算,Ian Goodfellow告訴他們這根本行不通。這將標誌著 「無監督學習」的一大飛躍。無需離開車庫,自動駕駛汽車就可以自學如何處理不同的路況;無需四處走動,機器人就能夠預估到在一個忙碌的倉庫中可能遇到的障礙。
  • 重磅| GAN之父Ian Goodfellow加盟蘋果
    雖然蘋果此前已經縮小了自動駕駛汽車研究的規模,但 Ian Goodfellow等人的加盟似乎意味著這家公司在人工智慧軍備競賽中的投入不減反增。目前,Ian Goodfellow 的 LinkedIn 帳戶已經更新了最近的跳槽活動:「我在蘋果公司領導一個機器學習特殊任務群組。」Goodfellow 寫道。
  • GAN初創者另有其人?IanGoodfellow:只是純策略版本
    眾所周知,生成對抗網絡(GAN)是由Ian Goodfellow 於2014年提出的。但是,一篇reddit熱帖披露早在2010年OlliNiemitalo即提出了同樣的概念。Goodfellow回應道:沒有提到隨機 z 向量,只是純策略版本。Ian Goodfellow於2014年提出的。
  • Ian Goodfellow線上直播實錄:關於GANs的那些不為人知的事兒
    /ian-goodfellow/ https://www.technologyreview.com/s/610253/the-ganfather-the-man-whos-given-machines-the-gift-of-imagination/Gautam Ramachandra
  • GAN之父身份遭質疑!一篇2010年的博客挑戰Ian Goodfellow
    有人比Ian Goodfellow早4年就提出了GAN?正當大家都已經認為GAN等於Ian Goodfellow的時候,Reddit上有人挖墳,稱其實早在Ian提出GAN這一概念的4年前,就已經有人提出了非常類似的概念。
  • 不積跬步,無以至千裡,不積小流,無以成江海。荀子講成功之道
    荀子給我們點出了成功之道,「不積跬步,無以至千裡,不積小流,無以成江海」。是啊,沒有那一步半步的積累,哪能到達千裡之外的地方去,沒有那多條河流的匯聚,哪裡能有江河湖海的存在。人的成功往往就是經歷了那些小事的積累,才成就了自己大事上的成功。
  • 大咖| GAN之父Ian Goodfellow在Quora:機器學習十問十答
    當然,我們也摘錄了Ian Goodfellow對他的「愛子」GAN的點評。此外,文摘將在本周推出Quora問答精選專欄,大家敬請關注!Ian Goodfellow:你應該要掌握一些基本的線性代數、概率和python的編程知識!
  • lan Goodfellow IEEESSP最新演講:對抗性實例安全性研究及其未來
    大數據文摘作品作者:鄭璇真繼上周密集更新的推特小課堂後,時刻操心著大家學習的Ian Goodfellow先來回顧一下上周的推特小課堂:學界 | Ian Goodfellow發推講2個機器學習黑魔法,教你如何推導公式學界 | Ian Goodfellow推特小課堂又開課啦:數學求導的小技巧
  • Ian Goodfellow 談 GANs 論文評審:有這些跡象的論文要懷疑
    如何評審對 GANs 做出通用改進的論文對於 GANs 工作原理的理論和實證研究論文都已經有很多,關於如何把 GANs 用在一些有意思的或者奇怪的新任務的論文也有很多(比如第一篇用 GANs 做無監督翻譯的),還有很多研究模型的評價指標的。我沒打算談這些。
  • 【校友專訪之吳國勤】積跬步,可以至千裡!
    他 就是本期專訪資深校友,天津大學1985級光學儀器專業本科的吳國勤校友。他 的經歷令我輩年輕校友備受啟發,他的成長成功無不說明著天津大學「實事求是」的校訓和「嚴謹治學」的校風,同時他也給我們當代年輕人的成長成功提供可行之道:積跬步,可至千裡,匯小流,必成大海。
  • 谷歌34歲AI新生代領袖被蘋果挖走 「GAN之父」Ian Goodfellow跳槽
    當地時間周四(4月4日),隨著 Ian Goodfellow 更新了他在領英上的個人資料,他 3 月份從谷歌跳槽到了蘋果的事實得到了證實。目前,他是蘋果特殊項目小組的機器學習主管。DeepTech 曾就此事聯繫 Goodfellow ,未收到沒有回覆相關評論。
  • 不積跬步,無以至千裡;不積小流,無以成江海
    人民日報少年客戶端漫畫工作室 █原典: 故不積跬步,無以至千裡;不積小流,無以成江海。 █出處和釋義: 出自《荀子·勸學》。這段話的意思是,不積累一步半步的行程,就沒有辦法達到千裡之遠;不積累細小的流水,就沒有辦法匯成江河大海。 做一件事,如果不能持之以恆,就不可能成功。讀書是一件需要長期堅持的事情,也是一個辛勞的過程。如果心浮氣躁、淺嘗輒止,是不可能做好學問的。
  • 不積跬步,無以至千裡;不積小流,無以成江海.
    昨晚習總書記2021新年賀詞裡說 「我們還要咬定青山不放鬆,腳踏實地加油幹,努力繪就鄉村振興的壯美畫卷,朝著共同富裕的目標穩步前行。」是的,新店小故事一次又一次演繹著----「每個人都了不起」。新店人的理解是「不積跬步,無以至千裡;不積小流,無以成江海。」就是這麼多的新店小夥伴一個又一個串出了新店人家故事,我們稱之為「好香新店」。
  • Ian Goodfellow發推講2個機器學習黑魔法,教你如何推導公式
    最後,他還不忘操心大家的學習,推薦了一本關於凸優化的書。當然,更詳盡的操作還是要去看Goodfellow本人的《深度學習》。文摘菌給大家搭配了斯坦福的一門MOOC,一起學習風味更佳~拉至文末查看喔~Goodfellow稱,這是關於機器學習,他最喜歡的兩個快速理解理論推導的「黑魔法」。
  • 真正的努力,是「不積跬步,無以至千裡;不積小流,無以成江海」
    真正的努力永遠不需要知道!既然選擇了遠方,便只顧風雨兼程不久前,我的朋友蘭蘭剛拿到博士學位的錄取通知書。蘭蘭是一名研究生,在家鄉的一個小城市工作,而丈夫卻在省會城市,她一直想結束與丈夫的分居。我問她為什麼不告訴我們考試的事,她說考試是她經過深思熟慮後做出的決定,她不需要告訴全世界,她只需要每天朝著這個目標努力,而太多的關注和問候,容易給她帶來一些不必要的心理壓力。既然選擇了遠方,便只顧風雨兼程。真正的努力不會有一點動靜的。
  • 「我比Goodfellow提前三年想到了GAN」
    Ian Goodfellow朋友們提出的方案是對那些組成圖片的元素進行複雜的統計分析以幫助機器自己生成圖片。這需要進行大量的數據運算,Ian Goodfellow告訴他們這根本行不通。邊喝啤酒邊思考問題時,他突然有了一個想法。如果讓兩個神經網絡相互對抗會出現什麼結果呢?他的朋友對此持懷疑態度。
  • Ian Goodfellow 離開OpenAI,重回谷歌大腦團隊
    目前沒有其它公開資料顯示 Goodfellow 的最新動向,不過從個人資料的更新時間來看,Goodfellow 回谷歌一事或已坐實。其實這一事情早有端倪。前段時間,Ian Goodfellow 投遞的論文獲得了 ICLR 2017 的 Best Paper,而 Goodfellow 在此論文的公司名赫然寫著 Google Brain。底部的注釋顯示,他這篇論文的工作是在 OpenAI 與 Google Brain 工作期間完成的。也就是說,Ian Goodfellow 很有可能在完成論文期間就從 OpenAI 跳回了谷歌。
  • 【Ian Goodfellow 強推】GAN 進展跟蹤 10 大論文(附下載)
    新智元報導 編譯:小潘、肖琴【新智元導讀】生成對抗網絡GAN的提出者Ian Goodfellow在推特上推薦了10篇GAN論文,是跟蹤GAN進展,了解最新技術不容錯過的。作者在論文中寫道,他們的歸一化方法需要調整的超參數只要一個,就是 Lipschitz 常數,而且即使不調整這個超參數,也能獲得滿意的性能。此外,算法實現簡單,額外的計算成本很小。論文地址:https://openreview.net/pdf?
  • IanGoodfellow撰文總結:谷歌的ICLR2017碩果纍纍
    雷鋒網消息,谷歌大腦團隊的IanGoodfellow今日在研究院官網上撰文,總結了谷歌在ICLR2017上所做的學術貢獻。雷鋒網編譯全文如下,未經許可不得轉載。本周,第五屆國際學習表徵會議(ICLR2017)在法國土倫召開,這是一個關注機器學習領域如何從數據中習得具有意義及有用表徵的會議。
  • 不積跬步 無以至千裡 故障未除 以何保安全
    不積跬步 無以至千裡 故障未除 以何保安全——新疆空管局空管中心技保中心排除程控電話故障記  12月23日,新疆空管局空管中心技保中心通信室區管崗位值班員接到管制員反映程控電話  這時候有人建議從頭至尾整個換一條線路,包括主用內話,備用內話,記錄儀全部重新使用新通道,但是這種方案不僅工作量巨大,浪費設備通道資源,而且沒有找到根本原因,換湯不換藥,下一次遇到同樣的問題還是不知道癥結出在哪裡。因此,經過大家討論放棄這種投機取巧的方法,追根溯源,抱著這種思想排故信心倍增。