【導讀】這裡是近5年100篇被引用次數最多的深度學習論文,覆蓋了優化/訓練方法、無監督/生成模型、卷積網絡模型和圖像分割/目標檢測等十大子領域。重要的論文能夠超越其應用領域讓人獲益。新智元在每個領域都選擇了一篇論文重點介紹,這將是你縱覽深度學習研究絕好的開始。【文末有領取連結,可一鍵下載這份經典資料】
這裡是100篇被引用次數最多的深度學習論文,從海量的相關論文中脫穎而出。無論其應用領域是什麼,都值得一讀,而在其各自的領域,它們是必讀之作。
此前已經有一些很棒的深度學習論文的榜單了,比如說Deep Vision和Awesome Recurrent Neural Networks。而在我們這份list誕生之後,另一份面對深度學習初學者的榜單Deep Learning Papers Reading Roadmap也問世並得到了許多深度學習研究者的喜愛。
這份Roadmap List囊括了許多重要的深度學習論文,相信重要的論文能夠超越其應用領域,讓我們獲益。因此,作為縱覽深度學習研究的開始,向大家推薦這100篇深度學習論文。
收錄標準:
收錄2012—2016年發表的Top100深度學習論文;
當list裡增加一篇論文時,一般來說,我們會從「2016年的更多論文」裡去掉一篇,以保證總數為100篇;
重要而未列入list的論文,會收入「100篇之外」;
最近6個月內發表的論文,或是2012年以前的論文,收入到「最新論文」或「老論文」中。
引用次數標準:
比起某一應用領域內的論文,我們更傾向於選擇適用於多個研究領域的開創性深度學習論文。基於此,有些達到了收錄標準的論文可能沒有被收入,而有些論文則相反。這取決於論文的影響力以及其對其他研究的適用性,等等。
理解/概括/傳遞
優化/訓練方法
無監督/生成模型
卷積網絡模型
圖像分割/目標檢測
圖像/視頻/其他
遞歸神經網絡模型
自然語言處理
語音/其他領域
強化學習
2016年的更多論文
(100篇之外)
新論文:最近6個月以內的
老論文:2012年以前的
HW/SW/數據集:技術報告
專著/調查報告/回顧
附錄:
未收錄的其他優秀論文
在神經網絡中提取知識
Distilling the knowledge in a neural network (2015)
作者 G. Hinton et al.
摘要:一個很簡單的能改善幾乎所有機器學習算法表現的辦法,就是訓練許多基於相同數據集的模型,並取這些模型的預測平均值。問題是,使用全部模型來進行預測是個笨辦法,且允許大量用戶部署的計算成本過於昂貴,特別是當個體模型是大規模神經網絡時。Caruana和他的合作者已經論證,有可能將一個集合中的知識壓縮到一個單獨模型中,部署起來也容易得多,而且我們使用了不同壓縮技巧進一步擴展了這一方法。在MNIST上,我們取得了一些令人吃驚的成功,並展示了可以顯著改善一個重度使用商業系統的聲學模型,方法就是將集合中的知識概括進一個單獨模型。我們也介紹了一個新型集合,由一個或更多的全模型以及許多學會了區分識別細粒度類別(全模型做不到)的專家模型組成,可以對這些專家模型進行快速、並行訓練。
深度神經網絡容易被騙:高信度預測無法識別的圖片
Deep neural networks are easily fooled: High confidence predictions for unrecognizable images (2015)
作者A. Nguyen et al.
深度神經網絡特徵的可遷移性如何?
How transferable are features in deep neural networks? (2014)
作者J. Yosinski et al.
卷積神經網絡現成的一些特性,對識別來說是令人驚奇的起點
CNN features off-the-Shelf: An astounding baseline for recognition (2014)
作者 A. Razavian et al.
使用卷積神經網絡學習和遷移中層圖像表徵
Learning and transferring mid-Level image representations using convolutional neural networks (2014)
作者M. Oquab et al.
卷積網絡的可視化和理解
Visualizing and understanding convolutional networks (2014)
作者 M. Zeiler and R. Fergus
DeCAF:一個應用於通用視覺識別的深度卷積激活特徵
Decaf: A deep convolutional activation feature for generic visual recognition (2014)
作者 J. Donahue et al.
Batch normalization算法:通過減少內部協變量轉化加速深度網絡的訓練
Batch normalization: Accelerating deep network training by reducing internal covariate shift (2015)
作者S. Loffe and C. Szegedy
摘要:訓練深層神經網絡由於在訓練期間每個層的輸入的分布改變而變得複雜,因為先前層的參數發生了改變。由於要求較低的學習速率和仔細的參數初始化,它減慢了訓練,並且使得訓練具有飽和非線性的模型變得非常困難。我們將這種現象稱為內部協變量移位(internal covariate shift ),並通過歸一化層輸入(normalizing layer in- puts
)來解決問題。我們的方法將歸一化作為模型架構的一部分,並對每個訓練迷你批次(each training mini-batch)執行歸一化,從而強化其強度。批量正規化允許我們使用高得多的學習速率,並且不用太考慮初始化的問題。 作為一個調節器,在某些情況下,它也消除了對dropout的需要。應用於最先進的圖像分類模型,批量歸一化在減少了14倍的訓練步驟的情況下實現了相同的精度,並且以顯著的餘量擊敗原始模型。憑藉一個批量歸一化網絡的集合,我們改進了ImageNet分類已發布的最好結果:達到4.9%的Top5驗證錯誤(以及4.8%的測試誤差),超過人類評估者的準確性。
深度探入糾正器:在 Imagenet 分類中超過人類表現
Delving deep into rectifiers: Surpassing human-level performance on imagenet classification (2015)
作者 K. He et al.
Dropout:一個預防神經網絡過擬合的簡單方式
Dropout: A simple way to prevent neural networks from overfitting (2014)
作者N. Srivastava et al.
Adam:一個隨機優化的方法
Adam: A method for stochastic optimization (2014)
作者 D. Kingma and J. Ba
通過預防特徵檢測器的互相適應改善神經網絡
Improving neural networks by preventing co-adaptation of feature detectors (2012)
作者G. Hinton et al.
超參數最優化的隨機搜索
Random search for hyper-parameter optimization (2012) 作者J. Bergstra and Y. Bengio
像素循環神經網絡
Pixel recurrent neural networks (2016)
作者 A. Oord et al.
訓練GANs的改善性技巧
Improved techniques for training GANs (2016)
作者T. Salimans et al.
摘要:近年來,利用卷積網絡(CNN)的監督學習已經在計算機視覺應用中被廣泛採用。 相比之下,使用CNN的無監督學習得到的關注較少。 在這項工作中,我們希望幫助彌合CNN的監督學習和無監督學習的成功之間的差距。 我們引入一類稱為深層卷積生成對抗網絡(DCGAN)的CNN,它們具有某些架構約束,已顯示出它們是無監督學習的強有力的候選者。 對各種圖像數據集的訓練,我們展示了令人信服的證據,表明我們的深層卷積對抗組件從發生器和鑑別器中的對象到場景裡面都學習了表徵層次。此外,我們使用學習到的特性去完成新任務 – 這顯示了它們像一般圖像表徵一樣具有適用性。
使用深度卷積生成對抗網絡進行無監督表徵學習
Unsupervised representation learning with deep convolutional generative adversarial networks (2015)
作者A. Radford et al.
DRAW:一個用於圖像生成的循環神經網絡
DRAW: A recurrent neural network for image generation (2015)
作者K. Gregor et al.
生成對抗網絡
Generative adversarial nets (2014)
作者I. Goodfellow et al.
自編碼變量貝葉斯
Auto-encoding variational Bayes (2013)
作者D. Kingma and M. Welling
用大規模無監督學習構建高水平特徵
Building high-level features using large scale unsupervised learning (2013)
作者Q. Le et al.
再思考計算機視覺的Inception結構
Rethinking the inception architecture for computer vision (2016)
作者C. Szegedy et al.
摘要:對於多種任務來說,卷及網絡處於最先進的計算機視覺解決方案的核心。自2014年以來,超深度卷積網絡開始成為主流,在各種benchmark中產生了巨大的收穫。雖然對大多數任務來說,增加的模型大小和計算成本往往轉化為直接增益(只要提供足夠的標記數據用於訓練),計算效率和低參數計數仍然是各種用例的有利因素,例如移動視覺和大數據場景。在這裡,我們將探討通過適當的因式分解卷積和積極正則化的方式,儘可能有效地利用增加的算力來擴大網絡規模。我們在ILSVRC 2012分類挑戰驗證集上的benchmark了我們的方法,展示了相對於現有技術的實質性增益:每次推理使用50億multiply-adds的計算成本及使用少於2500萬個參數,每單幀錯位率為21.2%top-1和5.6%top-5。綜合使用4種模型和multi-crop 評估的綜合,我們在驗證集上報告3.5%的top-5錯誤和17.3%的top-1錯誤,以及正式測試集上3.6%的top-5 錯誤。
Inception-v4, inception-resnet以及殘差連接對學習的影響
Inception-v4, inception-resnet and the impact of residual connections on learning (2016)
作者C. Szegedy et al.
在深度殘差網絡中識別映射
Identity Mappings in Deep Residual Networks (2016)
作者K. He et al.
圖像識別中的深度殘差學習
Deep residual learning for image recognition (2016)
作者K. He et al.
深入卷積網絡
Going deeper with convolutions (2015)
作者C. Szegedy et al.
大規模圖像識別的超深度卷積網絡
Very deep convolutional networks for large-scale image recognition (2014)
作者K. Simonyan and A. Zisserman
用於視覺識別的深度卷積網絡的空間金字塔池化
Spatial pyramid pooling in deep convolutional networks for visual recognition (2014)
作者K. He et al.
細節魔鬼的回歸:深挖卷積網絡
Return of the devil in the details: delving deep into convolutional nets (2014)
作者K. Chatfield et al.
OverFeat:使用卷積網絡融合識別、本地化和檢測
OverFeat: Integrated recognition, localization and detection using convolutional networks (2013)
作者P. Sermanet et al.
Maxout網絡
Maxout networks (2013)
作者I. Goodfellow et al.
深度網絡架構
Network in network (2013)
作者M. Lin et al.
使用深度卷積神經網絡進行ImageNet 分類
ImageNet classification with deep convolutional neural networks (2012)
作者A. Krizhevsky et al.
你只看一次:統一、實時的目標檢測
You only look once: Unified, real-time object detection (2016)
作者J. Redmon et al.
用於物體精準檢測和分割的基於區域的卷積網絡
Region-based convolutional networks for accurate object detection and segmentation (2016)
作者R. Girshick et al.
用於語義分割的飽和卷積網絡
Fully convolutional networks for semantic segmentation (2015)
作者J. Long et al.
更快速的 R-CNN網絡:使用區域建議網絡的實時物體檢測
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks (2015)
作者S. Ren et al.
快速R-CNN網絡
Fast R-CNN (2015)
作者R. Girshick
對精確的物體檢測和語義切割更為豐富的特徵分層
Rich feature hierarchies for accurate object detection and semantic segmentation (2014)
作者R. Girshick et al.
使用深度卷積網絡和完全連接的CRF進行語義圖像分割
Semantic image segmentation with deep convolutional nets and fully connected CRFs
作者L. Chen et al.
用於場景標註的層級特徵學習
Learning hierarchical features for scene labeling (2013)
作者C. Farabet et al.
利用深度卷積網絡的圖像超解析度
Image Super-Resolution Using Deep Convolutional Networks (2016)
作者C. Dong et al.
摘要:我們提出了一種用於單圖像超解析度(SR)的深度學習方法。 我們的方法直接學習低/高解析度圖像之間的端對端映射。 該映射被表示為以低解析度圖像作為輸入並輸出高解析度圖像的深度卷積神經網絡(CNN)。 我們進一步表明,傳統的基於稀疏編碼的SR方法也可以看作是一個深層卷積網絡。 但不同於傳統的分別處理每個組件方法,我們的方法聯合優化了所有層。 我們的深度CNN具有輕量的結構,但展示了最先進的恢復能力,並實現實際在線使用的高速度。 我們探索不同的網絡結構和參數設置,以實現性能和速度之間的權衡。此外,我們擴展我們的網絡,以同時處理三個color channels,並顯示了更好的整體重建質量。
基於DNN的藝術風格生成算法
A neural algorithm of artistic style (2015)
作者 L. Gatys et al.
可生成圖像說明的深度視覺-語義校準模型
Deep visual-semantic alignments for generating image descriptions (2015)
作者A. Karpathy and L. Fei-Fei
顯示、注意以及說明:帶有視覺注意模型的神經圖像說明生成
Show, attend and tell: Neural image caption generation with visual attention (2015)
作者K. Xu et al.
顯示和說明:一個神經圖像說明生成器
Show and tell: A neural image caption generator (2015)
作者O. Vinyals et al.
用於視覺識別和描述的長期循環卷積網絡
Long-term recurrent convolutional networks for visual recognition and description (2015)
作者J. Donahue et al.
VQA:視覺問答
VQA: Visual question answering (2015)
作者S. Antol et al.
DeepFace:在面部驗證任務中接近人類表現
DeepFace: Closing the gap to human-level performance in face verification (2014)
作者Y. Taigman et al.
利用卷積神經網絡進行大規模視頻分類
Large-scale video classification with convolutional neural networks (2014)
作者A. Karpathy et al.
DeepPose:利用深度神經網絡評估人類姿勢
DeepPose: Human pose estimation via deep neural networks (2014)
作者A. Toshev and C. Szegedy
用於視頻中動作識別的雙流卷積網絡
Two-stream convolutional networks for action recognition in videos (2014)
作者K. Simonyan et al.
用於人類動作識別的3D 卷積神經網絡
3D convolutional neural networks for human action recognition (2013)
作者S. Ji et al.
遞歸神經網絡的條件隨機場
Conditional random fields as recurrent neural networks (2015)
作者S. Zheng and S. Jayasumana.
記憶網絡
Memory networks (2014)
作者J. Weston et al.
神經網絡圖靈機
Neural turing machines (2014)
作者A. Graves et al.
遞歸神經網絡生成序列
Generating sequences with recurrent neural networks (2013)
作者A. Graves.
應用於神經網絡機器翻譯的無顯式分割字符級解碼器
A character-level decoder without explicit segmentation for neural machine translation (2016)
作者J. Chung et al.
探索語言建模的局限性
Exploring the limits of language modeling (2016)
作者R. Jozefowicz et al.
教機器閱讀和理解
Teaching machines to read and comprehend (2015)
作者 K. Hermann et al.
摘要:教機器閱讀自然語言文檔仍然是一個難以應付的挑戰。對於看到的文檔內容,我們可以測試機器閱讀系統回答相關問題的能力,但是到目前為止,對於這種類型的評估仍缺少大規模的訓練和測試數據集。在這項工作中,我們定義了一種新的方法來解決這個瓶頸,並提供了大規模的監督閱讀理解數據。 這允許我們開發一類基於attention的深層神經網絡,憑藉最少的語言結構的先驗知識來學習閱讀真實文檔和回答覆雜的問題 。
attended-based神經網絡機器翻譯有效策略
Effective approaches to attention-based neural machine translation (2015)
作者 M. Luong et al.
通過共同學習對齊和翻譯實現神經機器翻譯
Neural machine translation by jointly learning to align and translate (2014)
作者 D. Bahdanau et al.
利用神經網絡進行序列到序列的學習
Sequence to sequence learning with neural networks (2014)
作者I. Sutskever et al.
用 RNN 編碼——解碼器學習短語表徵,實現統計機器翻譯
Learning phrase representations using RNN encoder-decoder for statistical machine translation (2014)
作者K. Cho et al.
一個為句子建模的卷積神經網絡
A convolutional neural network for modelling sentences (2014)
作者 N. Kalchbrenner et al.
用於句子分類的卷積神經網絡
Convolutional neural networks for sentence classification (2014)
作者Y. Kim
Glove: 用於詞表徵的全局向量
Glove: Global vectors for word representation (2014)
作者 J. Pennington et al.
句子和文檔的分布式表示
Distributed representations of sentences and documents (2014)
作者Q. Le and T. Mikolov
詞、短語及其合成性的分布式表徵
Distributed representations of words and phrases and their compositionality (2013)
作者T. Mikolov et al.
有效評估詞在向量空間中的表徵
Efficient estimation of word representations in vector space (2013)
作者T. Mikolov et al.
基於情感樹庫應用於情感組合研究的遞歸深度網絡模型
Recursive deep models for semantic compositionality over a sentiment treebank (2013)
作者R. Socher et al.
端到端attention-based大規模詞表語音識別
End-to-end attention-based large vocabulary speech recognition (2016)
作者 D. Bahdanau et al.
Deep speech 2:中英文端到端語音識別
Deep speech 2: End-to-end speech recognition in English and Mandarin (2015)
作者 D. Amodei et al.
使用深度循環網絡進行語音識別
Speech recognition with deep recurrent neural networks (2013)
作者A. Graves
用於語音識別中聲學建模的深度神經網絡:四個研究小組的觀點分享
Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups (2012)
作者G. Hinton et al.
摘要:大多數當前的語音識別系統都使用隱馬爾科夫模型(HMMs)來解決語音中的時間變化問題,用混合高斯模型(GMMs)來評價每一個HMM擬合聲音輸入表示幀或者小窗口幀係數的效果。存在一種替代評價方法是使用前饋神經網絡來將多個幀係數作為輸入,將HMM狀態的後驗概率作為輸出。深度神經網絡有很多隱藏層,通過新的方法進行訓練,在很多語音識別任務上都比GMM模型更加出眾,有時甚至會好非常多。本文將會做一個綜述,分別對四家研究機構在最近語音識別的聲學建模領域取得的成功進行介紹。
基於上下文預訓練的深度神經網絡在大規模詞表語音識別中的應用
Context-dependent pre-trained deep neural networks for large-vocabulary speech recognition (2012)
作者G. Dahl et al.
使用深度置信網絡進行聲學建模
Acoustic modeling using deep belief networks (2012)
作者A. Mohamed et al.
深度視覺運動策略的端到端訓練
End-to-end training of deep visuomotor policies (2016),
作者S. Levine et al.
利用深度學習和大規模數據搜集,學習眼手協調的機器人抓取
Learning Hand-Eye Coordination for Robotic Grasping with Deep Learning and Large-Scale Data Collection (2016)
作者 S. Levine et al.
深度強化學習的異步方法
Asynchronous methods for deep reinforcement learning (2016)
作者V. Mnih et al.
使用雙Q學習的深度強化學習
Deep Reinforcement Learning with Double Q-Learning (2016)
作者 H. Hasselt et al.
通過深度神經網絡和樹搜索來掌控圍棋遊戲
Mastering the game of Go with deep neural networks and tree search (2016)
作者 D. Silver et al.
摘要:圍棋被視為人工智慧挑戰經典遊戲中最難的一個,因為其巨大的搜索空間和對位置和移動的評價難度。本文提出了一種新方法使用「值網絡」來評價位置,用「策略網絡」來選擇移動。這些深度神經網絡是從人類專家棋局中進行有監督學習,然後在從自對弈中進行強化學習。如果不考慮前向搜索的話,當前最好的神經網路模型是蒙特卡洛樹搜索,這種方法通過進行上千局的自對弈來進行仿真。我們也介紹了一種新點的搜索算法,將蒙特卡洛仿真與值網絡和策略網絡進行了綜合。使用這種搜索算法,我們的項目AlphaGo有99.8%的勝率,並且以5:0的比分打敗了來自歐洲的人類冠軍。這也是計算機第一次在真實圍棋比賽中擊敗人類專業選手,將10年後的目標提前完成了。
採用深度強化學習進行持續控制
Continuous control with deep reinforcement learning (2015)
作者T. Lillicrap et al.
通過深度強化學習實現人類水平控制
Human-level control through deep reinforcement learning (2015)
作者V. Mnih et al.
偵測機器人抓取的深度學習
Deep learning for detecting robotic grasps (2015)
作者 I. Lenz et al.
用強化學習玩atari遊戲
Playing atari with deep reinforcement learning (2013)
作者V. Mnih et al.
Layer Normalization (2016), J. Ba et al.
Learning to learn by gradient descent by gradient descent (2016), M. Andrychowicz et al.
Domain-adversarial training of neural networks (2016), Y. Ganin et al.
WaveNet: A Generative Model for Raw Audio (2016), A. Oord et al.
Colorful image colorization (2016), R. Zhang et al.
Generative visual manipulation on the natural image manifold (2016), J. Zhu et al.
Texture networks: Feed-forward synthesis of textures and stylized images (2016), D Ulyanov et al.
SSD: Single shot multibox detector (2016), W. Liu et al.
SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 1MB model size (2016), F. Iandola et al.
Eie: Efficient inference engine on compressed deep neural network (2016), S. Han et al.
Binarized neural networks: Training deep neural networks with weights and activations constrained to+ 1 or-1 (2016), M. Courbariaux et al.
Dynamic memory networks for visual and textual question answering (2016), C. Xiong et al.
Stacked attention networks for image question answering (2016), Z. Yang et al.
Hybrid computing using a neural network with dynamic external memory (2016), A. Graves et al.
Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation (2016), Y. Wu et al.
新論文:最近6個月以內的
Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-Normalized Models, S. Ioffe.
Wasserstein GAN, M. Arjovsky et al.
Understanding deep learning requires rethinking generalization, C. Zhang et al. [pdf]
老論文:2012年以前的
An analysis of single-layer networks in unsupervised feature learning (2011), A. Coates et al.
Deep sparse rectifier neural networks (2011), X. Glorot et al.
Natural language processing (almost) from scratch (2011), R. Collobert et al.
Recurrent neural network based language model (2010), T. Mikolov et al.
Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion (2010), P. Vincent et al.
Learning mid-level features for recognition (2010), Y. Boureau
A practical guide to training restricted boltzmann machines (2010), G. Hinton
Understanding the difficulty of training deep feedforward neural networks (2010), X. Glorot and Y. Bengio
Why does unsupervised pre-training help deep learning (2010), D. Erhan et al.
Recurrent neural network based language model (2010), T. Mikolov et al.
Learning deep architectures for AI (2009), Y. Bengio.
Convolutional deep belief networks for scalable unsupervised learning of hierarchical representations (2009), H. Lee et al.
Greedy layer-wise training of deep networks (2007), Y. Bengio et al.
Reducing the dimensionality of data with neural networks, G. Hinton and R. Salakhutdinov.
A fast learning algorithm for deep belief nets (2006), G. Hinton et al.
Gradient-based learning applied to document recognition (1998), Y. LeCun et al.
Long short-term memory (1997), S. Hochreiter and J. Schmidhuber.
OpenAI gym (2016), G. Brockman et al.
TensorFlow: Large-scale machine learning on heterogeneous distributed systems (2016), M. Abadi et al.
Theano: A Python framework for fast computation of mathematical expressions, R. Al-Rfou et al.
MatConvNet: Convolutional neural networks for matlab (2015), A. Vedaldi and K. Lenc
Imagenet large scale visual recognition challenge (2015), O. Russakovsky et al.
Caffe: Convolutional architecture for fast feature embedding (2014), Y. Jia et al.
Deep learning (Book, 2016), Goodfellow et al.
LSTM: A search space odyssey (2016), K. Greff et al.
Deep learning (2015), Y. LeCun, Y. Bengio and G. Hinton
Deep learning in neural networks: An overview (2015), J. Schmidhuber
Representation learning: A review and new perspectives (2013), Y. Bengio et al.
Dermatologist-level classification of skin cancer with deep neural networks (2017), A. Esteva et al.
Weakly supervised object localization with multi-fold multiple instance learning (2017), R. Gokberk et al.
Brain tumor segmentation with deep neural networks (2017), M. Havaei et al.
(2016)
Professor Forcing: A New Algorithm for Training Recurrent Networks (2016), A. Lamb et al.
Adversarially learned inference (2016), V. Dumoulin et al.
Understanding convolutional neural networks (2016), J. Koushik
Taking the human out of the loop: A review of bayesian optimization (2016), B. Shahriari et al.
Adaptive computation time for recurrent neural networks (2016), A. Graves
Densely connected convolutional networks (2016), G. Huang et al.
Continuous deep q-learning with model-based acceleration (2016), S. Gu et al.
A thorough examination of the cnn/daily mail reading comprehension task (2016), D. Chen et al.
Achieving open vocabulary neural machine translation with hybrid word-character models, M. Luong and C. Manning.
Very Deep Convolutional Networks for Natural Language Processing (2016), A. Conneau et al.
Bag of tricks for efficient text classification (2016), A. Joulin et al.
Efficient piecewise training of deep structured models for semantic segmentation (2016), G. Lin et al.
Learning to compose neural networks for question answering (2016), J. Andreas et al.
Perceptual losses for real-time style transfer and super-resolution (2016), J. Johnson et al.
Reading text in the wild with convolutional neural networks (2016), M. Jaderberg et al.
What makes for effective detection proposals? (2016), J. Hosang et al.
Inside-outside net: Detecting objects in context with skip pooling and recurrent neural networks (2016), S. Bell et al.
Instance-aware semantic segmentation via multi-task network cascades (2016), J. Dai et al.
Conditional image generation with pixelcnn decoders (2016), A. van den Oord et al.
Deep networks with stochastic depth (2016), G. Huang et al.,
【不用分享,不用轉發】只需2步就可搞定!
1、掃描下方二維碼,關注公眾號
2.在對話框輸入關鍵字【論文下載】,即可獲取下載方式!
PS:本公眾號所收集的所有資源均來自網絡,僅供私下交流學習之用,任何涉及到商業目的的均不能使用,所有資源均來自網際網路的優秀作者們,版權歸原作者或企業所有。