點擊上方「CVer」,選擇加"星標"置頂
重磅乾貨,第一時間送達
前言
前兩天,Amusi 整理了CVPR 引用量最高的10篇論文,詳見:何愷明ResNet登頂,YOLO佔據兩席!
各位CVers反映內容很贊,於是Amusi 快速整理了ICCV 引用量最高的10篇論文。在谷歌發布的2020年的學術指標(Scholar Metrics)榜單,ICCV 位列總榜第29位,是計算機視覺領域排名第二的大會!
這個排名是依據過去五年發表研究的數據(覆蓋2015-2019年發表的文章),並包括截止2020年6月在谷歌學術中被索引的所有文章的引用量。
眾所周知,CV領域的三大頂會就是:CVPR、ICCV和ECCV。本文就來盤點ICCV 2015-2019年引用量最高的10篇論文。根據此數據,一方面能看出這段深度學習黃金時期的研究熱點,另一方面查漏補缺,看看這些必看的Top級論文是不是都掌握了。
注1:2015年之前的論文不在統計範圍內
注2:引用量是根據谷歌給出的數據,會有波動,但影響不大
第一名:Fast R-CNN
Fast R-CNN
作者單位:Microsoft Research
作者團隊:Ross Girshick
引用量:10107
論文連結(收錄於ICCV 2015):
https://openaccess.thecvf.com/content_iccv_2015/html/Girshick_Fast_R-CNN_ICCV_2015_paper.html
Fast R-CNN 是R-CNN系列的第二篇論文(站在R-CNN和SPPnet上),極大提高了訓練和測試速度以及mAP。其提出的RoI Pooling層相當具有代表性。
Fast R-CNN architecture
第二名:PReLU
Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification
作者單位:Microsoft Research
作者團隊:Kaiming He(何愷明), Xiangyu Zhang, Shaoqing Ren, Jian Sun
引用量:8392
論文連結(收錄於ICCV 2015):
https://www.cv-foundation.org/openaccess/content_iccv_2015/html/He_Delving_Deep_into_ICCV_2015_paper.html
PReLU(Parametric Rectified Linear Unit),顧名思義:帶參數的ReLU。二者的定義和區別如下圖:
ReLU vs. PReLU
第三名:Mask R-CNN
Mask R-CNN
作者單位:Facebook AI Research (FAIR)
作者團隊:Kaiming He(何愷明), Georgia Gkioxari, Piotr Dollar, Ross Girshick
引用量:6730
論文連結(收錄於ICCV 2017):
https://openaccess.thecvf.com/content_iccv_2017/html/He_Mask_R-CNN_ICCV_2017_paper.html
Mask R-CNN 實例分割開山之作,當年直接拿下ICCV 2017 最佳論文獎(Best Paper Award)。
Mask R-CNN 摘要中有這麼一段話,看來是"真預言家"。
We hope our simple and effective approach will serve as a solid baseline and help ease future research in instance-level recognition.實例分割方向大放異彩,離不開Mask R-CNN的貢獻。
Mask R-CNN
第四名:CycleGAN
Unpaired Image-To-Image Translation Using Cycle-Consistent Adversarial Networks
作者單位:UC Berkeley
作者團隊:Jun-Yan Zhu(朱俊彥), Taesung Park, Phillip Isola, Alexei A. Efros
引用量:5080
論文連結(收錄於ICCV 2017):
https://openaccess.thecvf.com/content_iccv_2017/html/Zhu_Unpaired_Image-To-Image_Translation_ICCV_2017_paper.html
CycleGAN:入坑GAN 必學的論文之一
GAN->Pix2pix->CycleGAN
第五名:RetinaNet(Focal Loss)
Focal Loss for Dense Object Detection
作者單位:Facebook AI Research (FAIR)
作者團隊:Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He(何愷明), Piotr Dollar
引用量:3549
論文連結(收錄於ICCV 2017):
https://openaccess.thecvf.com/content_iccv_2017/html/Lin_Focal_Loss_for_ICCV_2017_paper.html
RetinaNet 當年一出,直接幹翻SSD和YOLOv2,下面這幅圖非常著名!
而且RetinaNet中的Focal loss至今也被廣泛應用,主要是為了解決one-stage目標檢測中正負樣本比例嚴重失衡的問題。
RetinaNet
第六名:C3D
Learning Spatiotemporal Features With 3D Convolutional Networks
作者單位:Facebook AI Research, 達特茅斯學院
作者團隊:Du Tran, Lubomir Bourdev, Rob Fergus, Lorenzo Torresani, Manohar Paluri
引用量:3448
論文連結(收錄於ICCV 2015):
https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Tran_Learning_Spatiotemporal_Features_ICCV_2015_paper.html
C3D使用3D CNN構造了一個效果強勁的網絡結構,其在視頻分析/識別相關任務上大放異彩。
第七名:Learning Deconvolution Network for Semantic Segmentation
Learning Deconvolution Network for Semantic Segmentation
作者單位:浦項科技大學
作者團隊:Hyeonwoo Noh, Seunghoon Hong, Bohyung Han
引用量:2654
論文連結(收錄於ICCV 2015):
https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Noh_Learning_Deconvolution_Network_ICCV_2015_paper.html
本文改進了FCN算法,通過學習深度反卷積網絡(deep deconvolution network)進行語義分割。
第八名:Deep Learning Face Attributes in the Wild
Deep Learning Face Attributes in the Wild
作者單位:香港中文大學, 中國科學院深圳先進技術研究院
作者團隊:Ziwei Liu(劉子緯), Ping Luo, Xiaogang Wang, Xiaoou Tang(湯曉鷗)
引用量:2586
論文連結(收錄於ICCV 2015):
https://openaccess.thecvf.com/content_iccv_2015/html/Liu_Deep_Learning_Face_ICCV_2015_paper.html
本文的主要思想是通過學習兩個網絡來構建face attributes recognition的系統,其中一個用來face localization(LNet),另一個用來attribute prediction(ANet)。
第九名:Grad-CAM
Grad-CAM: Visual Explanations From Deep Networks via Gradient-Based Localization
作者單位:喬治亞理工學院, Facebook AI Research
作者團隊:Ramprasaath R. Selvaraju, Michael Cogswell等
引用量:2183
論文連結(收錄於ICCV 2017):
https://openaccess.thecvf.com/content_iccv_2017/html/Selvaraju_Grad-CAM_Visual_Explanations_ICCV_2017_paper.html
Grad-CAM
第10名:CRF-RNN
Conditional Random Fields as Recurrent Neural Networks
作者單位:牛津大學, 史丹福大學, 百度
作者團隊:Shuai Zheng, Sadeep Jayasumana, Bernardino Romera-Paredes, Vibhav Vineet, Zhizhong Su, Dalong Du, Chang Huang, Philip H. S. Torr
引用量:1997
論文連結(收錄於ICCV 2015):
https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Zheng_Conditional_Random_Fields_ICCV_2015_paper.html
CRF-RBB 結合了卷積神經網絡(CNNs)和條件隨機場(CRFs),使其能夠end-to-end的方式,利用back-propagation訓練整個網絡,避免了後向處理的過程。
侃侃
1. 何愷明是唯一有兩篇入圍前10的一作作者;
2. 何愷明、Ross Girshick 均有三篇論文入圍;
3. Facebook AI Research 有四篇論文入圍;
下載1
上述10篇論文已打包好,在CVer公眾號後回覆:ICCV引用量,即可下載全部論文
下載2
在CVer公眾號後臺回覆:OpenCV書籍,即可下載《Learning OpenCV 3》書籍和原始碼。註:這本書是由OpenCV發起者所寫,是官方認可的書籍。其中涵蓋大量圖像處理的基礎知識介紹,雖然API還是基於OpenCV 3.x,但結合此書和最新API,可以很好的學習OpenCV。
下載3
在CVer公眾號後臺回覆:CVPR2020,即可下載CVPR2020 2020代碼開源的論文合集
在CVer公眾號後臺回覆:ECCV2020,即可下載ECCV 2020代碼開源的論文合集
重磅!CVer-目標檢測 微信交流群已成立
掃碼添加CVer助手,可申請加入CVer-目標檢測 微信交流群,目前已匯集4100人!涵蓋2D/3D目標檢測、小目標檢測、遙感目標檢測等。互相交流,一起進步!
同時也可申請加入CVer大群和細分方向技術群,細分方向已涵蓋:目標檢測、圖像分割、目標跟蹤、人臉檢測&識別、OCR、姿態估計、超解析度、SLAM、醫療影像、Re-ID、GAN、NAS、深度估計、自動駕駛、強化學習、車道線檢測、模型剪枝&壓縮、去噪、去霧、去雨、風格遷移、遙感圖像、行為識別、視頻理解、圖像融合、圖像檢索、論文投稿&交流、PyTorch和TensorFlow等群。
一定要備註:研究方向+地點+學校/公司+暱稱(如目標檢測+上海+上交+卡卡),根據格式備註,可更快被通過且邀請進群
▲長按加群
▲長按關注我們
整理不易,請給CVer點讚和在看!