(免費下載)深度學習 Top100:近 5 年被引用次數最高論文

2021-02-21 AEIC學術交流中心

【導讀】這裡是近5年100篇被引用次數最多的深度學習論文,覆蓋了優化/訓練方法、無監督/生成模型、卷積網絡模型和圖像分割/目標檢測等十大子領域。重要的論文能夠超越其應用領域讓人獲益。新智元在每個領域都選擇了一篇論文重點介紹,這將是你縱覽深度學習研究絕好的開始。【文末有領取連結,可一鍵下載這份經典資料】

這裡是100篇被引用次數最多的深度學習論文,從海量的相關論文中脫穎而出。無論其應用領域是什麼,都值得一讀,而在其各自的領域,它們是必讀之作。

此前已經有一些很棒的深度學習論文的榜單了,比如說Deep Vision和Awesome Recurrent Neural Networks。而在我們這份list誕生之後,另一份面對深度學習初學者的榜單Deep Learning Papers Reading Roadmap也問世並得到了許多深度學習研究者的喜愛。

這份Roadmap List囊括了許多重要的深度學習論文,相信重要的論文能夠超越其應用領域,讓我們獲益。因此,作為縱覽深度學習研究的開始,向大家推薦這100篇深度學習論文。

收錄標準:

收錄2012—2016年發表的Top100深度學習論文;

當list裡增加一篇論文時,一般來說,我們會從「2016年的更多論文」裡去掉一篇,以保證總數為100篇;

重要而未列入list的論文,會收入「100篇之外」;

最近6個月內發表的論文,或是2012年以前的論文,收入到「最新論文」或「老論文」中。

引用次數標準:

比起某一應用領域內的論文,我們更傾向於選擇適用於多個研究領域的開創性深度學習論文。基於此,有些達到了收錄標準的論文可能沒有被收入,而有些論文則相反。這取決於論文的影響力以及其對其他研究的適用性,等等。

理解/概括/傳遞

優化/訓練方法

無監督/生成模型

卷積網絡模型

圖像分割/目標檢測

圖像/視頻/其他

遞歸神經網絡模型

自然語言處理

語音/其他領域

強化學習

2016年的更多論文

(100篇之外)

新論文:最近6個月以內的

老論文:2012年以前的

HW/SW/數據集:技術報告

專著/調查報告/回顧

附錄:

未收錄的其他優秀論文

在神經網絡中提取知識

Distilling the knowledge in a neural network (2015)

作者 G. Hinton et al.

摘要:一個很簡單的能改善幾乎所有機器學習算法表現的辦法,就是訓練許多基於相同數據集的模型,並取這些模型的預測平均值。問題是,使用全部模型來進行預測是個笨辦法,且允許大量用戶部署的計算成本過於昂貴,特別是當個體模型是大規模神經網絡時。Caruana和他的合作者已經論證,有可能將一個集合中的知識壓縮到一個單獨模型中,部署起來也容易得多,而且我們使用了不同壓縮技巧進一步擴展了這一方法。在MNIST上,我們取得了一些令人吃驚的成功,並展示了可以顯著改善一個重度使用商業系統的聲學模型,方法就是將集合中的知識概括進一個單獨模型。我們也介紹了一個新型集合,由一個或更多的全模型以及許多學會了區分識別細粒度類別(全模型做不到)的專家模型組成,可以對這些專家模型進行快速、並行訓練。

深度神經網絡容易被騙:高信度預測無法識別的圖片

Deep neural networks are easily fooled: High confidence predictions for unrecognizable images (2015)

作者A. Nguyen et al.

深度神經網絡特徵的可遷移性如何?

How transferable are features in deep neural networks? (2014)

作者J. Yosinski et al.

卷積神經網絡現成的一些特性,對識別來說是令人驚奇的起點

CNN features off-the-Shelf: An astounding baseline for recognition (2014)

作者 A. Razavian et al.

使用卷積神經網絡學習和遷移中層圖像表徵

Learning and transferring mid-Level image representations using convolutional neural networks (2014)

作者M. Oquab et al.

卷積網絡的可視化和理解

Visualizing and understanding convolutional networks (2014)

作者 M. Zeiler and R. Fergus

DeCAF:一個應用於通用視覺識別的深度卷積激活特徵

Decaf: A deep convolutional activation feature for generic visual recognition (2014)

作者 J. Donahue et al.

Batch normalization算法:通過減少內部協變量轉化加速深度網絡的訓練

Batch normalization: Accelerating deep network training by reducing internal covariate shift (2015)

作者S. Loffe and C. Szegedy

摘要:訓練深層神經網絡由於在訓練期間每個層的輸入的分布改變而變得複雜,因為先前層的參數發生了改變。由於要求較低的學習速率和仔細的參數初始化,它減慢了訓練,並且使得訓練具有飽和非線性的模型變得非常困難。我們將這種現象稱為內部協變量移位(internal covariate shift ),並通過歸一化層輸入(normalizing layer in- puts 

)來解決問題。我們的方法將歸一化作為模型架構的一部分,並對每個訓練迷你批次(each training mini-batch)執行歸一化,從而強化其強度。批量正規化允許我們使用高得多的學習速率,並且不用太考慮初始化的問題。 作為一個調節器,在某些情況下,它也消除了對dropout的需要。應用於最先進的圖像分類模型,批量歸一化在減少了14倍的訓練步驟的情況下實現了相同的精度,並且以顯著的餘量擊敗原始模型。憑藉一個批量歸一化網絡的集合,我們改進了ImageNet分類已發布的最好結果:達到4.9%的Top5驗證錯誤(以及4.8%的測試誤差),超過人類評估者的準確性。

深度探入糾正器:在 Imagenet 分類中超過人類表現

Delving deep into rectifiers: Surpassing human-level performance on imagenet classification (2015)

作者 K. He et al.

Dropout:一個預防神經網絡過擬合的簡單方式

Dropout: A simple way to prevent neural networks from overfitting (2014)

作者N. Srivastava et al.

Adam:一個隨機優化的方法

Adam: A method for stochastic optimization (2014)

作者 D. Kingma and J. Ba

通過預防特徵檢測器的互相適應改善神經網絡

Improving neural networks by preventing co-adaptation of feature detectors (2012)

作者G. Hinton et al.

超參數最優化的隨機搜索

Random search for hyper-parameter optimization (2012) 作者J. Bergstra and Y. Bengio

像素循環神經網絡

Pixel recurrent neural networks (2016)

作者 A. Oord et al.

訓練GANs的改善性技巧

Improved techniques for training GANs (2016)

作者T. Salimans et al.

摘要:近年來,利用卷積網絡(CNN)的監督學習已經在計算機視覺應用中被廣泛採用。 相比之下,使用CNN的無監督學習得到的關注較少。 在這項工作中,我們希望幫助彌合CNN的監督學習和無監督學習的成功之間的差距。 我們引入一類稱為深層卷積生成對抗網絡(DCGAN)的CNN,它們具有某些架構約束,已顯示出它們是無監督學習的強有力的候選者。 對各種圖像數據集的訓練,我們展示了令人信服的證據,表明我們的深層卷積對抗組件從發生器和鑑別器中的對象到場景裡面都學習了表徵層次。此外,我們使用學習到的特性去完成新任務 – 這顯示了它們像一般圖像表徵一樣具有適用性。 

使用深度卷積生成對抗網絡進行無監督表徵學習

Unsupervised representation learning with deep convolutional generative adversarial networks (2015)

作者A. Radford et al.

DRAW:一個用於圖像生成的循環神經網絡

DRAW: A recurrent neural network for image generation (2015)

作者K. Gregor et al.

生成對抗網絡

Generative adversarial nets (2014)

作者I. Goodfellow et al.

自編碼變量貝葉斯

Auto-encoding variational Bayes (2013)

作者D. Kingma and M. Welling

用大規模無監督學習構建高水平特徵

Building high-level features using large scale unsupervised learning (2013)

作者Q. Le et al.

再思考計算機視覺的Inception結構

Rethinking the inception architecture for computer vision (2016)

作者C. Szegedy et al. 

摘要:對於多種任務來說,卷及網絡處於最先進的計算機視覺解決方案的核心。自2014年以來,超深度卷積網絡開始成為主流,在各種benchmark中產生了巨大的收穫。雖然對大多數任務來說,增加的模型大小和計算成本往往轉化為直接增益(只要提供足夠的標記數據用於訓練),計算效率和低參數計數仍然是各種用例的有利因素,例如移動視覺和大數據場景。在這裡,我們將探討通過適當的因式分解卷積和積極正則化的方式,儘可能有效地利用增加的算力來擴大網絡規模。我們在ILSVRC 2012分類挑戰驗證集上的benchmark了我們的方法,展示了相對於現有技術的實質性增益:每次推理使用50億multiply-adds的計算成本及使用少於2500萬個參數,每單幀錯位率為21.2%top-1和5.6%top-5。綜合使用4種模型和multi-crop 評估的綜合,我們在驗證集上報告3.5%的top-5錯誤和17.3%的top-1錯誤,以及正式測試集上3.6%的top-5 錯誤。

Inception-v4, inception-resnet以及殘差連接對學習的影響

Inception-v4, inception-resnet and the impact of residual connections on learning (2016)

作者C. Szegedy et al. 

在深度殘差網絡中識別映射

Identity Mappings in Deep Residual Networks (2016)

作者K. He et al. 

圖像識別中的深度殘差學習

Deep residual learning for image recognition (2016)

作者K. He et al. 

深入卷積網絡

Going deeper with convolutions (2015)

作者C. Szegedy et al. 

大規模圖像識別的超深度卷積網絡

Very deep convolutional networks for large-scale image recognition (2014)

作者K. Simonyan and A. Zisserman 

用於視覺識別的深度卷積網絡的空間金字塔池化

Spatial pyramid pooling in deep convolutional networks for visual recognition (2014)

作者K. He et al. 

細節魔鬼的回歸:深挖卷積網絡

Return of the devil in the details: delving deep into convolutional nets (2014)

作者K. Chatfield et al. 

OverFeat:使用卷積網絡融合識別、本地化和檢測

OverFeat: Integrated recognition, localization and detection using convolutional networks (2013)

作者P. Sermanet et al. 

Maxout網絡

Maxout networks (2013)

作者I. Goodfellow et al. 

深度網絡架構

Network in network (2013)

作者M. Lin et al. 

使用深度卷積神經網絡進行ImageNet 分類

ImageNet classification with deep convolutional neural networks (2012)

作者A. Krizhevsky et al. 

你只看一次:統一、實時的目標檢測

You only look once: Unified, real-time object detection (2016)

作者J. Redmon et al.

用於物體精準檢測和分割的基於區域的卷積網絡

Region-based convolutional networks for accurate object detection and segmentation (2016)

作者R. Girshick et al.

用於語義分割的飽和卷積網絡

Fully convolutional networks for semantic segmentation (2015)

作者J. Long et al.

更快速的 R-CNN網絡:使用區域建議網絡的實時物體檢測

Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks (2015)

作者S. Ren et al.

快速R-CNN網絡

Fast R-CNN (2015)

作者R. Girshick

對精確的物體檢測和語義切割更為豐富的特徵分層

Rich feature hierarchies for accurate object detection and semantic segmentation (2014)

作者R. Girshick et al.

使用深度卷積網絡和完全連接的CRF進行語義圖像分割

Semantic image segmentation with deep convolutional nets and fully connected CRFs

作者L. Chen et al.

用於場景標註的層級特徵學習

Learning hierarchical features for scene labeling (2013)

作者C. Farabet et al.

利用深度卷積網絡的圖像超解析度

Image Super-Resolution Using Deep Convolutional Networks (2016)

作者C. Dong et al. 

摘要:我們提出了一種用於單圖像超解析度(SR)的深度學習方法。 我們的方法直接學習低/高解析度圖像之間的端對端映射。 該映射被表示為以低解析度圖像作為輸入並輸出高解析度圖像的深度卷積神經網絡(CNN)。 我們進一步表明,傳統的基於稀疏編碼的SR方法也可以看作是一個深層卷積網絡。 但不同於傳統的分別處理每個組件方法,我們的方法聯合優化了所有層。 我們的深度CNN具有輕量的結構,但展示了最先進的恢復能力,並實現實際在線使用的高速度。 我們探索不同的網絡結構和參數設置,以實現性能和速度之間的權衡。此外,我們擴展我們的網絡,以同時處理三個color channels,並顯示了更好的整體重建質量。

基於DNN的藝術風格生成算法

A neural algorithm of artistic style (2015)

作者 L. Gatys et al. 

可生成圖像說明的深度視覺-語義校準模型

Deep visual-semantic alignments for generating image descriptions (2015)

作者A. Karpathy and L. Fei-Fei

顯示、注意以及說明:帶有視覺注意模型的神經圖像說明生成

Show, attend and tell: Neural image caption generation with visual attention (2015)

作者K. Xu et al.

顯示和說明:一個神經圖像說明生成器

Show and tell: A neural image caption generator (2015)

作者O. Vinyals et al.

用於視覺識別和描述的長期循環卷積網絡

Long-term recurrent convolutional networks for visual recognition and description (2015)

作者J. Donahue et al.

VQA:視覺問答

VQA: Visual question answering (2015)

作者S. Antol et al.

DeepFace:在面部驗證任務中接近人類表現

DeepFace: Closing the gap to human-level performance in face verification (2014)

作者Y. Taigman et al.

利用卷積神經網絡進行大規模視頻分類

Large-scale video classification with convolutional neural networks (2014)

作者A. Karpathy et al.

DeepPose:利用深度神經網絡評估人類姿勢

DeepPose: Human pose estimation via deep neural networks (2014)

作者A. Toshev and C. Szegedy

用於視頻中動作識別的雙流卷積網絡

Two-stream convolutional networks for action recognition in videos (2014)

作者K. Simonyan et al.

用於人類動作識別的3D 卷積神經網絡

3D convolutional neural networks for human action recognition (2013)

作者S. Ji et al.

遞歸神經網絡的條件隨機場

Conditional random fields as recurrent neural networks (2015)

作者S. Zheng and S. Jayasumana.

記憶網絡

Memory networks (2014)

作者J. Weston et al. 

神經網絡圖靈機

Neural turing machines (2014)

作者A. Graves et al. 

遞歸神經網絡生成序列

Generating sequences with recurrent neural networks (2013)

作者A. Graves. 

應用於神經網絡機器翻譯的無顯式分割字符級解碼器

A character-level decoder without explicit segmentation for neural machine translation (2016)

作者J. Chung et al.

探索語言建模的局限性

Exploring the limits of language modeling (2016)

作者R. Jozefowicz et al.

教機器閱讀和理解

Teaching machines to read and comprehend (2015)

作者 K. Hermann et al.

摘要:教機器閱讀自然語言文檔仍然是一個難以應付的挑戰。對於看到的文檔內容,我們可以測試機器閱讀系統回答相關問題的能力,但是到目前為止,對於這種類型的評估仍缺少大規模的訓練和測試數據集。在這項工作中,我們定義了一種新的方法來解決這個瓶頸,並提供了大規模的監督閱讀理解數據。 這允許我們開發一類基於attention的深層神經網絡,憑藉最少的語言結構的先驗知識來學習閱讀真實文檔和回答覆雜的問題 。

attended-based神經網絡機器翻譯有效策略

Effective approaches to attention-based neural machine translation (2015)

作者 M. Luong et al.

通過共同學習對齊和翻譯實現神經機器翻譯

Neural machine translation by jointly learning to align and translate (2014)

作者 D. Bahdanau et al.

利用神經網絡進行序列到序列的學習

Sequence to sequence learning with neural networks (2014)

作者I. Sutskever et al.

用 RNN 編碼——解碼器學習短語表徵,實現統計機器翻譯

Learning phrase representations using RNN encoder-decoder for statistical machine translation (2014)

作者K. Cho et al.

一個為句子建模的卷積神經網絡

A convolutional neural network for modelling sentences (2014)

作者 N. Kalchbrenner et al. 

用於句子分類的卷積神經網絡

Convolutional neural networks for sentence classification (2014)

作者Y. Kim

Glove: 用於詞表徵的全局向量

Glove: Global vectors for word representation (2014)

作者 J. Pennington et al.

句子和文檔的分布式表示

Distributed representations of sentences and documents (2014)

作者Q. Le and T. Mikolov

詞、短語及其合成性的分布式表徵

Distributed representations of words and phrases and their compositionality (2013)

作者T. Mikolov et al.

有效評估詞在向量空間中的表徵

Efficient estimation of word representations in vector space (2013)

作者T. Mikolov et al.

基於情感樹庫應用於情感組合研究的遞歸深度網絡模型

Recursive deep models for semantic compositionality over a sentiment treebank (2013)

作者R. Socher et al.

端到端attention-based大規模詞表語音識別

End-to-end attention-based large vocabulary speech recognition (2016)

作者 D. Bahdanau et al. 

Deep speech 2:中英文端到端語音識別

Deep speech 2: End-to-end speech recognition in English and Mandarin (2015)

作者 D. Amodei et al. 

使用深度循環網絡進行語音識別

Speech recognition with deep recurrent neural networks (2013)

作者A. Graves

用於語音識別中聲學建模的深度神經網絡:四個研究小組的觀點分享

Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups (2012)

作者G. Hinton et al.

摘要:大多數當前的語音識別系統都使用隱馬爾科夫模型(HMMs)來解決語音中的時間變化問題,用混合高斯模型(GMMs)來評價每一個HMM擬合聲音輸入表示幀或者小窗口幀係數的效果。存在一種替代評價方法是使用前饋神經網絡來將多個幀係數作為輸入,將HMM狀態的後驗概率作為輸出。深度神經網絡有很多隱藏層,通過新的方法進行訓練,在很多語音識別任務上都比GMM模型更加出眾,有時甚至會好非常多。本文將會做一個綜述,分別對四家研究機構在最近語音識別的聲學建模領域取得的成功進行介紹。

基於上下文預訓練的深度神經網絡在大規模詞表語音識別中的應用

Context-dependent pre-trained deep neural networks for large-vocabulary speech recognition (2012) 

作者G. Dahl et al. 

使用深度置信網絡進行聲學建模

Acoustic modeling using deep belief networks (2012)

作者A. Mohamed et al.

深度視覺運動策略的端到端訓練

End-to-end training of deep visuomotor policies (2016),

作者S. Levine et al. 

利用深度學習和大規模數據搜集,學習眼手協調的機器人抓取

Learning Hand-Eye Coordination for Robotic Grasping with Deep Learning and Large-Scale Data Collection (2016)

作者 S. Levine et al. 

深度強化學習的異步方法

Asynchronous methods for deep reinforcement learning (2016)

作者V. Mnih et al.

使用雙Q學習的深度強化學習

Deep Reinforcement Learning with Double Q-Learning (2016)

作者 H. Hasselt et al.

通過深度神經網絡和樹搜索來掌控圍棋遊戲

Mastering the game of Go with deep neural networks and tree search (2016)

作者 D. Silver et al. 

摘要:圍棋被視為人工智慧挑戰經典遊戲中最難的一個,因為其巨大的搜索空間和對位置和移動的評價難度。本文提出了一種新方法使用「值網絡」來評價位置,用「策略網絡」來選擇移動。這些深度神經網絡是從人類專家棋局中進行有監督學習,然後在從自對弈中進行強化學習。如果不考慮前向搜索的話,當前最好的神經網路模型是蒙特卡洛樹搜索,這種方法通過進行上千局的自對弈來進行仿真。我們也介紹了一種新點的搜索算法,將蒙特卡洛仿真與值網絡和策略網絡進行了綜合。使用這種搜索算法,我們的項目AlphaGo有99.8%的勝率,並且以5:0的比分打敗了來自歐洲的人類冠軍。這也是計算機第一次在真實圍棋比賽中擊敗人類專業選手,將10年後的目標提前完成了。

採用深度強化學習進行持續控制

Continuous control with deep reinforcement learning (2015)

作者T. Lillicrap et al. 

通過深度強化學習實現人類水平控制

Human-level control through deep reinforcement learning (2015)

作者V. Mnih et al. 

偵測機器人抓取的深度學習

Deep learning for detecting robotic grasps (2015)

作者 I. Lenz et al. 

用強化學習玩atari遊戲

Playing atari with deep reinforcement learning (2013)

作者V. Mnih et al.

Layer Normalization (2016), J. Ba et al. 

Learning to learn by gradient descent by gradient descent (2016), M. Andrychowicz et al. 

Domain-adversarial training of neural networks (2016), Y. Ganin et al. 

WaveNet: A Generative Model for Raw Audio (2016), A. Oord et al. 

Colorful image colorization (2016), R. Zhang et al. 

Generative visual manipulation on the natural image manifold (2016), J. Zhu et al. 

Texture networks: Feed-forward synthesis of textures and stylized images (2016), D Ulyanov et al. 

SSD: Single shot multibox detector (2016), W. Liu et al. 

SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 1MB model size (2016), F. Iandola et al. 

Eie: Efficient inference engine on compressed deep neural network (2016), S. Han et al. 

Binarized neural networks: Training deep neural networks with weights and activations constrained to+ 1 or-1 (2016), M. Courbariaux et al. 

Dynamic memory networks for visual and textual question answering (2016), C. Xiong et al. 

Stacked attention networks for image question answering (2016), Z. Yang et al. 

Hybrid computing using a neural network with dynamic external memory (2016), A. Graves et al. 

Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation (2016), Y. Wu et al. 

新論文:最近6個月以內的

Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-Normalized Models, S. Ioffe. 

Wasserstein GAN, M. Arjovsky et al. 

Understanding deep learning requires rethinking generalization, C. Zhang et al. [pdf]

老論文:2012年以前的

An analysis of single-layer networks in unsupervised feature learning (2011), A. Coates et al. 

Deep sparse rectifier neural networks (2011), X. Glorot et al. 

Natural language processing (almost) from scratch (2011), R. Collobert et al. 

Recurrent neural network based language model (2010), T. Mikolov et al. 

Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion (2010), P. Vincent et al. 

Learning mid-level features for recognition (2010), Y. Boureau 

A practical guide to training restricted boltzmann machines (2010), G. Hinton 

Understanding the difficulty of training deep feedforward neural networks (2010), X. Glorot and Y. Bengio 

Why does unsupervised pre-training help deep learning (2010), D. Erhan et al. 

Recurrent neural network based language model (2010), T. Mikolov et al. 

Learning deep architectures for AI (2009), Y. Bengio. 

Convolutional deep belief networks for scalable unsupervised learning of hierarchical representations (2009), H. Lee et al. 

Greedy layer-wise training of deep networks (2007), Y. Bengio et al. 

Reducing the dimensionality of data with neural networks, G. Hinton and R. Salakhutdinov. 

A fast learning algorithm for deep belief nets (2006), G. Hinton et al. 

Gradient-based learning applied to document recognition (1998), Y. LeCun et al. 

Long short-term memory (1997), S. Hochreiter and J. Schmidhuber. 

OpenAI gym (2016), G. Brockman et al. 

TensorFlow: Large-scale machine learning on heterogeneous distributed systems (2016), M. Abadi et al. 

Theano: A Python framework for fast computation of mathematical expressions, R. Al-Rfou et al.

MatConvNet: Convolutional neural networks for matlab (2015), A. Vedaldi and K. Lenc 

Imagenet large scale visual recognition challenge (2015), O. Russakovsky et al. 

Caffe: Convolutional architecture for fast feature embedding (2014), Y. Jia et al. 

Deep learning (Book, 2016), Goodfellow et al. 

LSTM: A search space odyssey (2016), K. Greff et al. 

Deep learning (2015), Y. LeCun, Y. Bengio and G. Hinton 

Deep learning in neural networks: An overview (2015), J. Schmidhuber 

Representation learning: A review and new perspectives (2013), Y. Bengio et al. 

Dermatologist-level classification of skin cancer with deep neural networks (2017), A. Esteva et al. 

Weakly supervised object localization with multi-fold multiple instance learning (2017), R. Gokberk et al. 

Brain tumor segmentation with deep neural networks (2017), M. Havaei et al. 

(2016)

Professor Forcing: A New Algorithm for Training Recurrent Networks (2016), A. Lamb et al. 

Adversarially learned inference (2016), V. Dumoulin et al.

Understanding convolutional neural networks (2016), J. Koushik 

Taking the human out of the loop: A review of bayesian optimization (2016), B. Shahriari et al. 

Adaptive computation time for recurrent neural networks (2016), A. Graves 

Densely connected convolutional networks (2016), G. Huang et al. 

Continuous deep q-learning with model-based acceleration (2016), S. Gu et al. 

A thorough examination of the cnn/daily mail reading comprehension task (2016), D. Chen et al. 

Achieving open vocabulary neural machine translation with hybrid word-character models, M. Luong and C. Manning. 

Very Deep Convolutional Networks for Natural Language Processing (2016), A. Conneau et al. 

Bag of tricks for efficient text classification (2016), A. Joulin et al. 

Efficient piecewise training of deep structured models for semantic segmentation (2016), G. Lin et al. 

Learning to compose neural networks for question answering (2016), J. Andreas et al. 

Perceptual losses for real-time style transfer and super-resolution (2016), J. Johnson et al. 

Reading text in the wild with convolutional neural networks (2016), M. Jaderberg et al. 

What makes for effective detection proposals? (2016), J. Hosang et al. 

Inside-outside net: Detecting objects in context with skip pooling and recurrent neural networks (2016), S. Bell et al. 

Instance-aware semantic segmentation via multi-task network cascades (2016), J. Dai et al. 

Conditional image generation with pixelcnn decoders (2016), A. van den Oord et al. 

Deep networks with stochastic depth (2016), G. Huang et al., 

【不用分享,不用轉發】只需2步就可搞定!


1、掃描下方二維碼,關注公眾號


2.在對話框輸入關鍵字【論文下載,即可獲取下載方式!



PS:本公眾號所收集的所有資源均來自網絡,僅供私下交流學習之用,任何涉及到商業目的的均不能使用,所有資源均來自網際網路的優秀作者們,版權歸原作者或企業所有。

相關焦點

  • 【資源】深度學習Top100:近5年被引用次數最高論文(下載)
    Um譯者:張易本文長度為16219字,進入數據派公眾號回復「清華大數據」下載這份經典資料。這裡是近5年100篇被引用次數最多的深度學習論文,覆蓋了優化/訓練方法、無監督/生成模型、卷積網絡模型和圖像分割/目標檢測等十大子領域。重要的論文能夠超越其應用領域讓人獲益。
  • 深度 計算機視覺和深度學習領域,被引用次數最多的三十篇論文(附下載)
    2012年,我開始列舉計算機視覺領域引用率最高的文章清單。
  • 引用次數最多的深度學習論文出自誰手?(無監督學習/生成模型篇)
    雷鋒網AI科技評論:我們通常都會學習前輩或大牛的經典作品,而引用次數自然也成為了論文的一個重要標杆。在GitHub上,@Terryum整理了一份精心編寫的論文推薦列表,其中包含了在深度學習領域中引用次數最多的前100篇論文(自2012年起)。有一些深度學習論文,無論它們屬於哪個應用領域,都值得仔細研習。文章在精不在多,雷鋒網提供的這些文章,都被認為是值得一讀的優秀論文。
  • 引用次數最多的深度學習論文出自誰手?無監督學習/生成模型篇
    雷鋒網AI科技評論:我們通常都會學習前輩或大牛的經典作品,而引用次數自然也成為了論文的一個重要標杆。在GitHub上,@Terryum整理了一份精心編寫的論文推薦列表,其中包含了在深度學習領域中引用次數最多的前100篇論文(自2012年起)。有一些深度學習論文,無論它們屬於哪個應用領域,都值得仔細研習。
  • 世界上被引用次數最多的科學論文
    一篇就足夠了,這可是全世界被引用次數最多的論文。截至2004年1月,這篇題為《用Folin-酚試劑測量蛋白質》的生物學論文已經獲得了275699次引用。論文中,洛瑞根據自己在美國紐約公共健康研究所作的研究,提出了一種測定蛋白含量的方法。
  • 中國近十年化學領域論文總引用次數超過一百萬
  • 谷歌2019 學術指標發榜:CVPR首次進入Top 10,何愷明論文引用最高!
    AI類的多個頂會進入榜單Top 100,CVPR更是進入前10,而何愷明的「深度殘差網絡」單篇引用次數高達25256次,引用量最高!  今天,谷歌正式發布了2019年版的學術指標(Scholar Metrics)。  本次發布涵蓋2014-2018年發表的文章,並包括了截至2019年7月在谷歌學術中被索引的所有文章的引用 。
  • 中國SCI論文中化學學科論文最多,被引用次數排名世界第1位
    中國SCI論文數最多的十個學科中,化學位居第一;材料科學、化學和工程技術論文的被引用次數排名世界第1位。 國際高被引論文數量世界排名第二 2009-2019年被引用次數處於各學科世界前1%的論文稱為高被引論文。中國高被引論文數為30755篇,佔世界份額為20.0%,數量比2018年增加了23.9%,排在世界第2位,位次比上一年度上升一位,佔世界份額提升了近3個百分點。
  • 大盤點:Top100 深度學習論文+7 篇下載量最多的 AI 研究文章!
    從人臉識別到網頁新聞推薦,都有它的身影,而這些也離不開深度學習。深度學習從大量數據中學習樣本數據的內在規律,最終讓機器能夠像人一樣具有分析學習能力,能夠識別文字、圖像和聲音等,並在語音和圖像識別方面取得巨大的成果。
  • ​2018深度學習引用數最高的十大論文
    魯棒性的開源工具、雲計算以及大量可用的數據是深度學習能夠取得成功的重要基石。下面,我們列出2018年度十大深度學習論文:& Geoffrey H. (2015) (Cited: 5,716):深度學習是一種由多個處理層組成的計算模型,它能夠學習數據的多層次抽象表徵。目前,這類方法已經在目標檢測、語音識別、視覺目標識別以及許多其他領域(諸如藥物發現和基因組學)取得了當前最佳的性能。
  • 機器學習和深度學習引用量最高的20篇論文(2014-2017)
    Pham機器之心編譯參與:邵明、黃小天機器學習和深度學習的研究進展正深刻變革著人類的技術,本文列出了自 2014 年以來這兩個領域發表的最重要(被引用次數最多)的 20 篇科學論文,以饗讀者機器學習,尤其是其子領域深度學習,在近些年來取得了許多驚人的進展。重要的研究論文可能帶來使全球數十億人受益的技術突破。這一領域的研究目前發展非常快,為了幫助你了解進展狀況,我們列出了自 2014 年以來最重要的 20 篇科學論文。
  • 日媒:中國在71個領域論文被引用次數全球最多
    據日本《每日新聞》報導,日本國立研究開發法人「科學技術振興機構」的一項最新分析顯示,在2015年-2017年全球高品質科學論文的國別比例中,中國在理工類的71個領域裡,論文被引用次數最多,佔據的領域數量超越其他國家。由此可見,世界最尖端的科學研究領域呈現中美兩強的明顯趨勢。
  • 韓媒:全世界被引用次數最多論文 中國是韓國4倍
    參考消息網12月12日報導  韓媒稱,據調查結果顯示,在全世界研究者引用最多的論文中,中國科學家的論文所佔比重達到韓國的4倍。這意味著,在最高水平科學技術實力方面,中國已經超過了韓國。  據韓國《朝鮮日報》12月12日報導,韓國開發研究院11日公布的《國家研究開發體系革新方案研究》報告顯示,據統計,2002年到2013年之間被引用次數最多的中國論文所佔比重為5.1%,韓國僅為1.2%,是韓國的4倍以上。  被引用次數最多的論文是指,世界各國的研究者引用頻率最多的前1%的論文。
  • 【乾貨】2017年深度學習必讀31篇論文(附論文下載地址)
    ,Kloud Strife在其博客上盤點了今年最值得關注的有關深度學習的論文,包括架構/模型、生成模型、強化學習、SGD & 優化及理論等各個方面,有些論文名揚四海,有些論文則非常低調。執行VI,收斂到限制周期SGD performs VI, converges to limit cycles論文下載地址:https://arxiv.org/pdf/1710.11029.pdf我堅信在解釋深度學習為什麼有用方面,答案將來自諧波/二階分析和資訊理論與基於熵的測量之間的交集。
  • 2017年深度學習必讀31篇論文(附下載地址)
    2017年即將擦肩而過,Kloud Strife在其博客上盤點了今年最值得關注的有關深度學習的論文,包括架構/模型、生成模型、強化學習、SGD & 優化及理論等各個方面,有些論文名揚四海,有些論文則非常低調。一如既往,首先,標準免責聲明適用,因為今年僅與GAN有關的論文就超過1660篇。
  • 論文被撤十多年,引用卻增至2500次:撤稿研究為何陰魂不散?
    最近,美國一位信息科學教授就發現,一篇 2005 年發表於 CHEST 期刊、題為 Effects of Omega-3 Polyunsaturated Fatty Acids on Inflammatory Markers in COPD 的醫學論文在被撤稿 10 餘年後,其直接引用次數達到近 150 次,「二手」引用量更是超過 2500 次。
  • 全網最全的論文下載渠道(免費) | 趕緊收藏
    當離開學校後,論文資料下載成了我們科研路上的絆腳石,知網下載論文0.5元一頁的高價,我們難以承受,這不,我們匯聚了網上各個渠道,為科研人員助力加油!09網址:http://www.ciejournal.org該期刊從2016年開始公布已發表論文的數據和代碼,系國內期刊首家,下載時無需註冊登錄。另外,該期刊也在嘗試公布部分論文的專家審稿意見,實在很棒。大家還可以關注《中國工業經濟》的微信公眾號,及時了解相關訊息。
  • 為Sci-hub正名:一旦收錄,文章引用次數提高1.72倍
    Scihub除了能實現自由分享文獻的願景,那能為論文作者帶來什麼呢?最近,就有科學家,用數據為Sci-hub正名:凡是被Sci-hub收錄,可免費下載的文章的被引次數提高1.72倍!論文摘要引文經常被用來衡量科學出版物的影響力。在這裡,我們檢查從Sci中心下載的數量,以及出版物的各種特性,以及他們的作者如何預測未來的引文。
  • 深度分析:盲目推崇論文引用率後果嚴重
    其中,「取消『SCI他引次數』,改為他引總次數」引發熱議。論文「他引總次數」比「SCI他引次數」所涉範圍更廣、數量更大,此舉體現了對論文引用率的重視以及對提高評價科學性的努力。最新公布的泰晤士高等教育2020亞洲大學排行榜中,中國大陸地區高校首次佔據前兩位。在其指標體系中,「論文引用」權重也高居30%,看來重視論文引用率在教育評價中普遍存在。
  • 國際關係經典英文論文被引用次數排名
    下面是海圖為大家整理的國際關係經典論文被引用次數的排名。對照前面經典著作的引用次數排名,可以看到有些學者是著作影響力很大,但是論文影響力小。也可以看出下面這些論文基本都是國際關係主要理論學派的代表作品。這些論文都是國際關係學者和學生的必讀論文,趕快去讀吧。Putnam, Robert D.