NIPS 2016精華大盤點丨吳恩達、LeCun等大師的論文、PPT都在這兒...

2021-01-11 雷鋒網

2016 NIPS 仍在如火如荼地進行,各位大佬也頻繁在會場露面,並時不時的搞個「大新聞」。雷鋒網(公眾號:雷鋒網)時刻關注著 NIPS 的一切動態,並把大家較為關注的論文以及學術大師的PPT整理出來,方便大家學習和參考。

先打個招呼,正文和文末都有彩蛋。

Yann LeCun 

Yann LeCun 最近可謂是學術界的網紅,上周先後錄了三段視頻為大家普及人工智慧知識,現在又飛到西班牙見見粉絲,也不忘隨時更新下 Facebook。

Yann LeCun 受邀在今年的 NIPS 大會發表演講。眾所周知,深度學習通常分類為:無監督學習、監督學習和增強學習,而 Yann LeCun 在演講中用「預測學習」替代「無監督學習」。他指出因為預測學習要求機器不僅能在沒有人類監督的情況下進行學習,同時能夠學習世界的預測模型。

演講結束後 ,Yann LeCun 做了個總結:

1.  如果有很多標籤的數據,監督學習會運行的很好。

2. 但是如果我們想讓機器觀察世界並如何獲取"常識",上面提到的那一點是遠遠不夠的。

3. 唯一能讓機器獲得常識的方法就是讓它像人和動物一樣觀察世界。

4. 要變得更聰明,機器需要學習世界的預測模型。

5. 實體RNN是一種新模型,從對事件的文本描述中,對世界的狀態作出估測。

6. 這是唯一一個能解決20個任務,並且精確度還不錯地模型。

7. 通過演示(完成)動作序列進行學習,並在不影響真實世界的情況下模擬出結果。

8. 但他們也需要一個目標導向的學習方式,同時也需要基於模型的增強學習.

9. 預測學習可以在一個以能源為基礎的框架內製定,在不確定的情況下開始學習。

10. 在不確定的情況下學習,最有效的辦法是對抗訓練。

11. 以能源為基礎的生成式對抗網絡可以合成高解析度圖像。

12. 對抗訓練能夠訓練視頻預測系統,並將"模糊預測"的問題列入最小二乘法問題。

看到這裡,你一定想仔細瞅瞅 Yann LeCun 的 75 頁 PPT 吧?

關注雷鋒網旗下的人工智慧垂直微信公眾號【AI科技評論】,在公眾號後臺回復關鍵詞「大師」,獲取PPT。

Yoshua Bengio 得意門生:Ian Goodfellow

近日,Open AI 科學家 Ian Goodfellow 在 NIPS 2016 大會上分享了生成式對抗網絡的研究成果,

Ian Goodfellow  是何許人也,現為 Open AI 科學家,此前為谷歌大腦團隊高級研究員,大學期間師從 Yoshua Bengio 大神。生成式對抗網絡這個詞就是他發明的,而且對機器學習領域的研究影響重大。

那麼就來聽聽「生成式對抗網絡之父」講講生成式對抗網絡。

送個菜單,這是 Yoshua Bengio 剛剛在 FB 上發的照片,師徒相聚,畫面感人。

NIPS大會現場:最左為 Yoshua Bengio,最右為 Ian Goodfellow 

那麼接下來言歸正傳:

我們知道,機器學習方法可以分為生成方法(generative approach)和判別方法(discriminative approach),所學到的模型分別稱為生成式模型(generative model)和判別式模型(discriminative model)。其中近兩年來流行的生成式模型主要分為三種方法:

生成對抗網絡(GAN:Generative Adversarial Networks) 

變分自編碼器(VAE: Variational Autoencoders) 

自回歸模型(Autoregressive models) 

小編為大家提供的 PPT 內容著重講生成對抗網絡(GAN:Generative Adversarial Networks),總共 86 頁。 

關注微信公眾帳號【AI科技評論】,在微信公眾號後臺回復關鍵詞「大神」,獲取PPT。

吳恩達

昨日在吳恩達教授在 NIPS 上發表演講:《利用深度學習開發人工智慧應用的基本要點(Nuts and Bolts of Building Applications using Deep Learning)》。

吳恩達在現場用黑筆白筆寫的板書,已被小編做成了中文版 PPT,就是這麼走心。

整理後的:

關注微信公眾帳號【AI科技評論】,在微信公眾號後臺回復關鍵詞「吳恩達大禮包」,獲取PPT。

2016NIPS 有趣、有料的論文視頻 8 個

本文作者魏秀參,雷鋒網已獲得這部分內容的引用授權。

前幾天 NIPS官網開放了部分錄用文章的 Spotlight Videos(連結:https://nips.cc/Conferences/2016/SpotlightVideos),為學術達人魏秀參童鞋把所有論文都捋了一遍,特地將一些有趣、有料的內容整理出來分享給大家。文章連結均為 Youtube 視頻。

一、Fast and Provably Good Seedings for k-Means:傳統k-Means算法受初始化影響較大,雖然後來有k-Means++算法來優化初始化結果,但該算法不能適用於海量數據。本文提出了一種新的更優且高效的針對k-Means初始化方法(oral paper)

連結:https://www.youtube.com/watch?v=QtQyeka-tlQ&feature=youtu.be

二、Hierarchical Question-Image Co-Attention for Visual Question Answering:針對VQA提出不僅要在image domain需要attention,同時為了增加魯棒性還需在question domain同樣加入attention;

連結:https://www.youtube.com/watch?v=m6t9IFdk0ms&feature=youtu.be

三、Residual Networks Behave Like Ensembles of Relatively Shallow Networks:實驗角度探究了ResNet,提出ResNet更像很多小網絡的集成。比較有意思的paper;

連結:https://www.youtube.com/watch?v=jFJF5hXuo0s

四、Stochastic Multiple Choice Learning for Training Diverse Deep Ensembles:多個深度模型集成算法;

連結:www.youtube.com/watch%3Fv%3DKjUfMtZjyfg%26feature%3Dyoutu.be

五、Active Learning from Imperfect Labelers:提出一種adaptive算法以處理主動學習中labeler不不確定的情況;

連結:https://www.youtube.com/watch?v=zslooZuNNIk&feature=youtu.be

六、Improved dropout for shallow deep learning:提出一種改進版本dropout 

連結:https://www.youtube.com/watch?v=oZOOfaT94iU&feature=youtu.be

七、Convolutional Neural Fabrics:抽象化CNN,學習網絡結構 

連結:https://www.youtube.com/watch?v=bqPJFQEykbQ

八、Tagger: Deep Unsupervised Perceptual Grouping很有料的文章,另外視頻很贊,建議授予「最佳視頻獎」:) 

連結:https://www.youtube.com/watch?v=jfB_lWZA4Qo&feature=youtu.be

Google 12 篇精選論文

獲取方式:關注微信公眾帳號【AI科技評論】,在後臺回復關鍵詞「谷歌大禮包」獲取 12 篇論文的 PDF

看完 PPT 和視頻,現在就得來點兒略生澀的硬貨了,Google 的重量級論文來襲,其中也有論文是 Geoffrey Hinton 寫的哦。

作者:Stefano Leonardi, Aris Anagnostopoulos, Jakub Łącki, Silvio Lattanzi, Mohammad Mahdian

作者:Aditya Bhaskara, Mehrdad Ghadiri, Vahab Mirrokni, Ola Svensson

作者:James McQueen, Marina Meila, Dominique Joncas

作者:Mehryar Mohri, Scott Yang

作者:Mohammad Norouzi, Samy Bengio, Zhifeng Chen, Navdeep Jaitly, Mike Schuster, Yonghui Wu, Dale Schuurmans

作者:Changyou Chen, Nan Ding, Chunyuan Li, Yizhe Zhang, Lawrence Carin

作者:Chelsea Finn*, Ian Goodfellow, Sergey Levine

作者:Jimmy Ba, Geoffrey Hinton, Volodymyr Mnih, Joel Leibo, Catalin Ionescu

作者:Kai-Wei Chang, He He, Stephane Ross, Hal III

作者:Navdeep Jaitly, Quoc Le, Oriol Vinyals, Ilya Sutskever, David Sussillo, Samy Bengio

作者:S. M. Ali Eslami, Nicolas Heess, Theophane Weber, Yuval Tassa, David Szepesvari, Koray Kavukcuoglu, Geoffrey Hinton

作者:Hossein Esfandiari, Nitish Korula, Vahab Mirrokni

DeepMind 論文精選

獲取方式:關注微信公眾帳號【AI科技評論】,在微信公眾號後臺回復關鍵詞「DeepMind大禮包」,獲取下面部分論文PDF

Google 的論文要是沒看夠的話,那就繼續瞅瞅 DeepMind 的論文。

DeepMind 在其博客上更新了文章《DeepMind Papers @ NIPS 》,介紹了其在 NIPS 2016 上發表的一部分論文。

一、用於學習物體、關係和物理學的交互網絡( Interaction Networks for Learning about Objects, Relations and Physics)

作者:Peter Battaglia, Razvan Pascanu, Matthew Lai, Danilo Rezende, Koray Kavukcuoglu

論文連結: https://arxiv.org/abs/1605.07571

概述:在此介紹交互網絡(interaction networks),交互網絡可以推理複雜系統中物體的交互,支持動態預測,以及推理該系統的抽象屬性。交互網絡結合了三種強大的方法:結構化模型(structured model)、模擬(simulation)和深度學習。它們能夠輸入圖結構化的數據(graph-structured data),以一種類似於模擬的方式執行以物體或關係為中心的推理,並可通過使用深度神經網絡來實現。它們不會根據這些實體和關係的排列而改變,可自動泛化到與它們訓練時的結構不同和大小規模的系統中。

二、用於學習宏動作的 STRAW 模型(Strategic Attentive Writer for Learning Macro-Actions)

作者:Alexander (Sasha) Vezhnevets, Volodymyr Mnih, Simon Osindero, Alex Graves, Oriol Vinyals, John Agapiou, Koray Kavukcuoglu

論文視頻: https://www.youtube.com/watch?v=niMOdSu3yio

摘要:我們提出一個新的深度循環神經網絡架構,它可以在一個強化學習場景中,通過與某個環境互動來以端到端的方式學習構建隱含的規劃。該網絡構建了一個內部規劃,它會根據對來自環境中的下一個輸入的觀察進行持續地更新。此外,它也可以通過學習根據規劃實現所要的時長來將這個內部表徵分區成連續的子序列,不需要重新做計劃。

三、 用於 One Shot 學習的 Matching Network (Matching Networks for One Shot Learning)

作者:Oriol Vinyals, Charles Blundell, Timothy Lillicrap, Koray Kavukcuoglu, Daan Wierstra

連結:https://arxiv.org/abs/1606.04080

摘要:給定一個樣本很少甚至只有一個樣本的看不見分類中,可以使用 Matching Networks 在 ImageNet 上達到較高的分類精度。該核心架構訓練起來較為簡單,與此同時,它在一系列圖像和文本分類任務上的表現極好。Matching Network 可按照其測試的方式訓練:呈現一系列瞬時性的 one shot 學習訓練任務,其中訓練樣本的每一個實例都要並行投入該網絡中。然後訓練 Matching Network 來正確對很多不同輸入訓練集進行分類。效果是要訓練一個網絡,它可以跳過梯度下降的步驟,在一個全新的數據集上分類。

四、安全有效的離策略強化學習(Safe and efficient off-policy reinforcement learning)

作者:Remi Munos, Tom Stepleton, Anna Harutyunyan, Marc G. Bellemare

論文連結:https://arxiv.org/abs/1606.02647

我們的目標是設計出帶有兩個所需特性的強化學習算法。首先,要使用離策略數據(off-policy data),當我們使用記憶再現(memory replay,即觀察日誌數據)時它對探索很重要。其次,要使用多步驟返回(multi-steps returns)以便更快地傳遞反饋和避免近似/估計誤差(approximation/estimation errors)的積累。這兩個屬性在深度強化學習中是至關重要的。

五、 樣本高效的蒙特卡洛規劃(Blazing the trails before beating the path: Sample efficient Monte-Carlo planning)

作者:Jean-Bastien Grill (INRIA), Michal Valko (INRIA), Remi Munos

PDF連結:https://papers.nips.cc/paper/6253-blazing-the-trails-before-beating-the-path-sample-efficient-monte-carlo-planning.pdf

假如有一臺依照馬爾科夫決策過程(MDP)運轉的機器人,它有有限或無限次數的狀態-動作到下一個狀態的轉換。機器人需要在執行任務前進行一系列規劃。現在,為了進行計劃,機器人配備了一個生成模型來進行蒙特卡洛規劃。為了感知世界,機器人需要進行高效的規劃,也就是說要樣本高效(sample-efficient)——通過僅探索可使用的一個狀態子集來利用 MDP 的可能結構,這些探索遵循近最優策略(near-optimal policies)。你需要保證樣本複雜性,這取決於接近最優狀態數量的度量。你想要的是對問題的蒙特卡洛採樣(用於估計期望)的擴展,該採樣可以交替最大化(在動作上)和期望(在下一個狀態上)。你需要一個簡單的實現和足夠的計算效率。我們提出了 TrailBlazer 來解決此類需求。

六、通過 Bootstrapped DQN 的深度探索(Deep Exploration via Bootstrapped DQN)

作者:Ian Osband, Charles Blundell, Alex Pritzel and Benjamin Van Roy

論文連結: https://papers.nips.cc/paper/6501-deep-exploration-via-bootstrapped-dqn

強化學習領域出現了很多突破,不過這些算法中很多都需要大量數據,之後才能學會做出好的決策。在許多真實環境中,我們無法獲得如此大量的數據。

這些算法學習如此之慢的原因之一是它們並沒有收集到用於學習該問題的正確數據。這些算法使用抖動(採取隨機動作)來探索他們的環境——這種方法比起在多個時間步驟上對信息策略進行優先級排序的深度探索,效率指數級地更差。對於使用深度探索進行統計學上高效的強化學習已經有很多文獻了,但問題是這些算法中沒有一個是可以通過深度學習解決的,而現在我們有了。

這篇論文的關鍵突破如下:提出了第一個結合了深度學習與深度探索的實用強化學習算法:Bootstrapped DQN。

視頻連接:https://www.youtube.com/playlist?list=PLdy8eRAW78uLDPNo1jRv8jdTx7aup1ujM

七、 帶有隨機層數的序貫神經模型(Sequential Neural Models with Stochastic Layers)

作者:Marco Fraccaro, Søren Kaae Sønderby, Ulrich Paquet, Ole Winther

論文連結:https://arxiv.org/abs/1605.07571

摘要:RNN 在捕獲數據中的長期依賴性方面表現優異,而 SSM 可以對序列中的潛在隨機結構中的不確定性進行建模,並且善於跟蹤和控制。有沒有可能將這兩者的最好一面都集中到一起呢?在本論文中,我們將告訴你如何通過分層確定的(RNN)層和隨機的(SSM)層去實現這個目標。我們將展示如何通過給定一個序列的過去(過濾)、以及它的過去和未來(平滑)的信息來有效地推理它當前的隱含結構。

八、通過梯度下降去學習通過梯度下降的學習(Learning to learn by gradient descent by gradient descent)

作者:Marcin Andrychowicz, Misha Denil, Sergio Gomez, Matthew Hoffman, David Pfau, Tom Schaul, Nando De Freitas

論文連結:https://arxiv.org/abs/1606.0447 (https://arxiv.org/abs/1606.04474)

摘要:我們展示了如何將優化算法的設計作為一個學習問題,允許算法學習以一種自動的方式在相關問題中探索結構。我們學習到的算法在已經被訓練過的任務上的表現勝過了標準的人工設計的算法,並且也可以很好地推廣到具有類似結構的新任務中。我們在一些任務上演示了這種方法,包括神經網絡訓練和使用神經藝術為圖像賦予風格。

九、一個使用部分調節的在線序列到序列的模型(An Online Sequence-to-Sequence Model Using Partial Conditioning)

作者:Navdeep Jaitly, Quoc V. Le, Oriol Vinyals, Ilya Sutskever, David Sussillo, Samy Bengio

PDF連結:http://papers.nips.cc/paper/6594-an-online-sequence-to-sequence-model-using-partial-conditioning.pdf

摘要:由於從一個序列到另一個序列(序列到序列(seq2seq))的映射的模型的通用性比較優異,所以它們在過去兩年變得非常流行,在翻譯、字幕或者解析等一系列任務中達到了頂尖水準。這些模型的主要缺點是它們在開始產生結果輸出序列「y」之前需要讀取整個輸入序列「x」。在我們的論文中,我們通過允許模型在整個輸入序列被讀取之前發出輸出符號來規避這些限制。雖然這引入了一些獨立假設,但也在語音識別或機器翻譯等特定領域的在線決策中使得這些模型更加理想。

十、 通過時間的記憶有效的反向傳播(Memory-Efficient Backpropagation through time)

作者:Audrunas Gruslys, Remi Munos, Ivo Danihelka, Marc Lanctot, Alex Graves

PDF連結:https://papers.nips.cc/paper/6220-memory-efficient-backpropagation-through-time.pdf

摘要:當訓練卷積 RNN 時,特別容易耗盡昂貴的 GPU 儲存器,並且儲存器的限制經常導致網絡大小的折損。用於緩解這個方法的常見方案之一是僅記憶一些中間神經元的激活,並且根據需要重新計算其他的激活。雖然存在許多的啟發式方法來折中儲存器和計算,但是它們中的大多數僅適用於某些邊緣情況並且是次優的。我們將該問題視為一個動態規劃問題,它允許我們找到一類收到內存限制的可證明最優策略。對於長度為 1000 的序列,我們的算法節省了 95% 的儲存器使用,而每個學習步驟僅使用了比標準的 BPTT 多三分之一的時間。

十一、 實現概念壓縮(Towards Conceptual Compression)

作者:Karol Gregor, Frederic Besse, Danilo Rezende, Ivo Danihelka, Daan Wierstra

PDF連接:http://papers.nips.cc/paper/6542-towards-conceptual-compression.pdf

摘要:發現高層面的抽象表徵是無監督學習的主要目標之一。我們設計出一種架構解決這個問題,該架構可將存儲在像素中的信息轉換為攜帶表徵的有序信息序列。訓練根據順序的緊急程度產生,其中早期表徵攜帶了更多關於圖像的全局和概念方面的信息,而後期的表徵則對應於細節。該模型是一個完全卷積、序列的變分自動編碼器,其設計靈感來自 DRAW。該架構簡單且均勻,因此不需要許多的設計選擇。

十二、圖像 3D 結構的無監督學習(Unsupervised Learning of 3D Structure from Images)

作者: Danilo Rezende, Ali Eslami, Shakir Mohamed, Peter Battaglia, Max Jaderberg, Nicolas Heess

論文地址:https://arxiv.org/abs/1607.00662

摘要:想像你正在盯著一張椅子的照片。如果從不同的視角想像椅子的形狀,你就能夠準確地識別出這是椅子。做到這一點的關鍵不僅是要明確了解透視圖、遮擋和圖像信息處理,更重要的是要有「椅子該是什麼樣」這樣的先驗知識,這能讓你「填充」圖像中丟失的部分。在此論文中,我們研究了能夠完成類似上述推理的模型,首次證明了以完全無監督的形式學習推論 3D 表徵的可行性。

關注微信公眾帳號【AI科技評論】,在後臺回復「終極大禮包」獲取上面所有資料。

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 吳恩達 NIPS 2016:利用深度學習開發人工智慧應用的基本要點(含...
    NIPS 2016大會中的PPT做為中文版,由三川和亞峰聯合編譯並製作。今日,在第 30 屆神經信息處理系統大會(NIPS 2016)中,百度首席科學家吳恩達教授發表演講:《利用深度學習開發人工智慧應用的基本要點(Nuts and Bolts of Building Applications using Deep Learning)》。
  • 吳恩達NIPS2016:利用深度學習開發人工智慧應用的基本要點含唯一的...
    雷鋒網按:為了方便讀者學習和收藏,雷鋒網特地把吳恩達教授在NIPS 2016大會中的PPT做為中文版,由三川和亞峰聯合編譯並製作。今日,在第 30 屆神經信息處理系統大會(NIPS 2016)中,百度首席科學家吳恩達教授發表演講:《利用深度學習開發人工智慧應用的基本要點(Nuts and Bolts of Building Applications using Deep Learning)》。
  • 一文告訴你,NIPS 2017有多火爆 | 附PPT、視頻、代碼大總結
    論文:https://arxiv.org/abs/1611.04496代碼: https://github.com/opheadacheh/Multi-view-neural-acoustic-words-embeddings
  • 【NIPS2017】你也可以成為遊戲高手,Facebook FAIR實驗室田淵棟研究員PPT詳解(附下載)
    ELF是一個大範圍、輕量級且易於使用的遊戲研究平臺。這是一個為強化學習研究人員設計的平臺,它為遊戲提供了多樣化的屬性、高效率的模擬和高度可定製的環境設置。ELF 可以讓研究者們在不同的遊戲環境中測試他們的算法,其中包括桌遊、Atari 遊戲,以及定製的即時戰略遊戲(RTS)。
  • 吳恩達被diss了
    吳恩達Twitter一發,說得好像這個問題已經解決了一樣,可是他們只找了4名放射科醫師,略微超過了他們的平均成績。醫生Eric Topol也在論文結果中標註了這樣兩句話,提醒我們注意:在Lior看來,吳恩達作為一名聞名學界內外、有30萬Twitter粉絲的大V,如此聳人聽聞,對同行、對公眾、對整個科學家群體來說,都不是什麼好事。對同行來說,傷害顯而易見。
  • 【NIPS2017最新Tutorial】幾何深度學習(Geometric Deep Learning )講解(附slide下載)
    NIPS是人工智慧和機器學習領域的頂會,來自世界範圍內優秀的科學家、研究人員和從業者都將匯聚一堂,相互切磋工作,將在未來的五天裡共同討論和分享人工智慧的前沿想法和未來發展。每年 NIPS 的會議上,都會有非常重量級的 tutorial 和工作發表。
  • 吳恩達的課上完了?如何科學開啟你的深度學習論文閱讀生涯
    我也是最近才開始閱讀研究論文的。本文將會介紹我自己在開始閱讀文獻的時候積累的一些經驗。意義所在曾經有人在Quora上提問,如何才能鑑定一個人是否有資格從事機器學習工作。谷歌大腦創始人之一、百度人工智慧小組前負責人吳恩達(Andrew Ng)如是說:任何人都有資格。當你上過一些機器學習相關的課程後,想要更進一步時,可以閱讀一些研究論文。
  • AI研究實力最強的25所高校,據NIPS2017論文數統計
    NIPS 2017在加州長灘舉辦,吸引了8000名參會者,從3240篇提交的論文中接收了679篇,接收率為21%。根據這679篇論文,統計得到以下結果。根據論文統計,全球TOP25的大學:1.參考資料:https://medium.com/@chuvpilo/whos-ahead-in-ai-research-insights-from-nips-most-prestigious-ai-conference-df2c361236f6
  • 吳恩達演講直指AI落地三大挑戰,並提出解決方案
    隨著人工智慧的不斷發展,大量先進算法以及配套硬體設施不斷湧現,研究人員憑藉新算法等不斷刷新 SOTA 記錄,但是在科研中、論文中實現的高精度性能,很多卻不能應用於實際的生產中。AI 離真正的落地還有多遠?現階段,許多公司和研究團隊正在努力將研究轉化為實際的生產部署。
  • 希德書院2016級導師丨物理學系
    希德書院2016
  • 亞洲指彈大師盧家宏2016中國巡演發布會
    亞洲指彈大師盧家宏2016中國巡演發布會2016年1月10日下午2:00,亞洲吉他指彈界傳奇人物盧家宏,在廣州花園酒店舉辦了「亞洲指彈大師盧家宏2016中國巡演發布會」及巡演啟動儀式。此次巡迴演唱會預計將於3月與大家見面,據悉,盧家宏2016中國巡迴演唱會將會登錄各省,覆蓋全國,規模空前。在近幾年內地演出市場以港臺偶像明星及國外歌星巡演唱主角的情況下,以吉他為主題的巡迴演唱會可以說是獨樹一幟,引人關注。據透露,此次巡迴演唱會更是汲取了盧家宏在香港、臺灣等地演出的精華,讓內地觀眾能夠全面感受盧家宏「絕對創新、絕對感動、絕對難忘」的現場吉他演繹。
  • 126篇殿堂級深度學習論文分類整理 從入門到應用 | 乾貨
    ,又不想在這一行打醬油,那麼研讀大牛論文將是不可避免的一步。而作為新人,你的第一個問題或許是:「論文那麼多,從哪一篇讀起?」本文將試圖解決這個問題——文章標題本來是:「從入門到絕望,無止境的深度學習論文」。請諸位備好道具,開啟頭懸梁錐刺股的學霸姿勢。開個玩笑。但對非科班出身的開發者而言,讀論文的確可以成為一件很痛苦的事。
  • 吳恩達發布Nova Ng,迄今為止「最複雜的神經網絡」
    作者:郭一璞近日,吳恩達發布了Nova Ng,迄今為止最複雜的神經網絡,她重達6斤,誕生於本月7號(大年初三),作者是吳恩達和妻子Carol E. Reiley。恭喜Andrew,AI能幫忙養娃麼?也有人給出了AI養娃的研究方向:
  • ECCV 2020 論文大盤點-光流篇
    本文盤點 ECCV 2020 所有光流(Optical Flow)相關論文,總計 7 篇,值得一提的是來自普林斯頓大學的論文『RAFT:
  • 2016年11月4日Science期刊精華
    2016年11月7日/生物谷BIOON/--/生物谷BIOON/--本周又有一期新的Science期刊(2016年11月4日)發布,它有哪些精彩研究呢?讓小編一一道來。論文第一作者Mayssa Mokalled說,「我們吃驚地發現在脊髓損傷後,它僅在一小部分神經膠質細胞中表達。我們曾認為這些神經膠質細胞和這種基因必需是比較重要的。」確實,當他們嘗試通過基因手段剔除CTGF時,這些斑馬魚都不能再生它們的脊髓。人類和斑馬魚共享大多數蛋白編碼基因,而且CTGF也不例外。人CTGF蛋白與斑馬魚CTGF存在將近90%的相似性。
  • ppt做SCI論文圖⑥——WB電泳圖
    下面用ppt來處理WB電泳圖,最終獲得一張符合SCI論文發表要求的圖片。1、把所需要的圖片複製粘貼進一個新建的PPT頁面(使用空白版式,去掉佔位符),並調出各種參考線:a.在PPT工作區右鍵-網格和參考線-勾選「參考線」和「智能參考線」;b.右鍵-網格和參考線-添加垂直參考線、添加水平參考線。
  • 「深度學習才不是鍊金術」,Yann LeCun為這個和NIPS獲獎論文作者掐...
    這幾天,LeCun 和 NIPS 2017「時間檢驗獎」論文作者之一的 Ali Rahimi 就在 Facebook 上掐了起來。說實話,這件事的工作量之大讓我有點嚇到了。我在演講中也是希望有更多的人可以幫忙來一起解決。我覺得問題不是出在理論上。數學也只做得了數學的事情,起不到多少幫助。我覺得問題在於研討方式上。我希望我們可以有簡單的實驗、簡單的理論,這樣當我們溝通深入的見解的時候就不會有迷惑之處。你可能非常擅於構建很深的模型了,因為你比我們中的大多數人都做過更多的實驗。
  • 盤點2016年兩大流行色:薔薇粉 靜謐藍
    盤點一整年流行色在國際珠寶、服飾、時尚和流行趨勢中的表現,撥開流行的面紗。  作為全球色彩領域最專業的色彩定義機構,潘通(Pantone)每年年底的最後一個月,會發布下一年度的官方流行色色卡。換句話說,潘通定義了每年世界的新顏色。2016年潘通同時定義了兩種顏色作為流行色:薔薇粉,靜謐藍。  薔薇粉不同於以往的粉色,它使人顯得更加自然柔和。
  • 2016年12月16日Science期刊精華
    2016年12月20日/生物谷BIOON/---本周又有一期新的Science期刊(2016年12月16日)發布,它有哪些精彩研究呢?讓小編一一道來。People's Medical Publishing House, 2016. 191 pp. 自上世紀90年代中期以來,愛滋病開始在西方國家蔓延開來,隨著治療手段的推進,這一一朝死的疾病慢慢轉變為慢性疾病。在中國,愛滋瘟疫似乎才剛剛開始,在中國南方,由於嗑藥者眾多,很多患艾者並不為所知,此外,在農村地區,存在大量的賣血者,也促進了愛滋的傳播。
  • Github 上打星超過 1 萬的可復現頂會論文項目
    雷鋒網 AI 科技評論將當中用戶打星數超過 1w 的論文進行簡要編譯,以饗讀者。論文連結:http://papers.nips.cc/paper/6870-bridging-the-gap-between-value-and-policy-based-reinforcement-learning.pdf復現代碼:https://github.com/tensorflow/models簡介