ICCV 引用量最高的10篇論文!何愷明兩篇一作論文:Mask R-CNN和PReLU,Facebook佔據四席!

2021-02-21 CVer

點擊上方「CVer」,選擇加"星標"置頂

重磅乾貨,第一時間送達

前言

前兩天,Amusi 整理了CVPR 引用量最高的10篇論文,詳見:何愷明ResNet登頂,YOLO佔據兩席!

各位CVers反映內容很贊,於是Amusi 快速整理了ICCV 引用量最高的10篇論文。在谷歌發布的2020年的學術指標(Scholar Metrics)榜單,ICCV 位列總榜第29位,是計算機視覺領域排名第二的大會!

這個排名是依據過去五年發表研究的數據(覆蓋2015-2019年發表的文章),並包括截止2020年6月在谷歌學術中被索引的所有文章的引用量。

眾所周知,CV領域的三大頂會就是:CVPR、ICCV和ECCV。本文就來盤點ICCV 2015-2019年引用量最高的10篇論文。根據此數據,一方面能看出這段深度學習黃金時期的研究熱點,另一方面查漏補缺,看看這些必看的Top級論文是不是都掌握了。

注1:2015年之前的論文不在統計範圍內

注2:引用量是根據谷歌給出的數據,會有波動,但影響不大

第一名:Fast R-CNN

Fast R-CNN

作者單位:Microsoft Research

作者團隊:Ross Girshick

引用量:10107

論文連結(收錄於ICCV 2015):

https://openaccess.thecvf.com/content_iccv_2015/html/Girshick_Fast_R-CNN_ICCV_2015_paper.html

Fast R-CNN 是R-CNN系列的第二篇論文(站在R-CNN和SPPnet上),極大提高了訓練和測試速度以及mAP。其提出的RoI Pooling層相當具有代表性。

Fast R-CNN architecture

第二名:PReLU

Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification

作者單位:Microsoft Research

作者團隊:Kaiming He(何愷明), Xiangyu Zhang, Shaoqing Ren, Jian Sun

引用量:8392

論文連結(收錄於ICCV 2015):

https://www.cv-foundation.org/openaccess/content_iccv_2015/html/He_Delving_Deep_into_ICCV_2015_paper.html

PReLU(Parametric Rectified Linear Unit),顧名思義:帶參數的ReLU。二者的定義和區別如下圖: 

ReLU vs. PReLU

第三名:Mask R-CNN

Mask R-CNN

作者單位:Facebook AI Research (FAIR)

作者團隊:Kaiming He(何愷明), Georgia Gkioxari, Piotr Dollar, Ross Girshick

引用量:6730

論文連結(收錄於ICCV 2017):

https://openaccess.thecvf.com/content_iccv_2017/html/He_Mask_R-CNN_ICCV_2017_paper.html

Mask R-CNN 實例分割開山之作,當年直接拿下ICCV 2017 最佳論文獎(Best Paper Award)。

Mask R-CNN 摘要中有這麼一段話,看來是"真預言家"。

We hope our simple and effective approach will serve as a solid baseline and help ease future research in instance-level recognition.

實例分割方向大放異彩,離不開Mask R-CNN的貢獻。

Mask R-CNN

第四名:CycleGAN

Unpaired Image-To-Image Translation Using Cycle-Consistent Adversarial Networks

作者單位:UC Berkeley

作者團隊:Jun-Yan Zhu(朱俊彥), Taesung Park, Phillip Isola, Alexei A. Efros

引用量:5080

論文連結(收錄於ICCV 2017):

https://openaccess.thecvf.com/content_iccv_2017/html/Zhu_Unpaired_Image-To-Image_Translation_ICCV_2017_paper.html

CycleGAN:入坑GAN 必學的論文之一

GAN->Pix2pix->CycleGAN

第五名:RetinaNet(Focal Loss)

Focal Loss for Dense Object Detection

作者單位:Facebook AI Research (FAIR)

作者團隊:Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He(何愷明), Piotr Dollar

引用量:3549

論文連結(收錄於ICCV 2017):

https://openaccess.thecvf.com/content_iccv_2017/html/Lin_Focal_Loss_for_ICCV_2017_paper.html

RetinaNet 當年一出,直接幹翻SSD和YOLOv2,下面這幅圖非常著名!

而且RetinaNet中的Focal loss至今也被廣泛應用,主要是為了解決one-stage目標檢測中正負樣本比例嚴重失衡的問題。

RetinaNet

第六名:C3D

Learning Spatiotemporal Features With 3D Convolutional Networks

作者單位:Facebook AI Research, 達特茅斯學院

作者團隊:Du Tran, Lubomir Bourdev, Rob Fergus, Lorenzo Torresani, Manohar Paluri

引用量:3448

論文連結(收錄於ICCV 2015):

https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Tran_Learning_Spatiotemporal_Features_ICCV_2015_paper.html

C3D使用3D CNN構造了一個效果強勁的網絡結構,其在視頻分析/識別相關任務上大放異彩。

第七名:Learning Deconvolution Network for Semantic Segmentation

Learning Deconvolution Network for Semantic Segmentation

作者單位:浦項科技大學

作者團隊:Hyeonwoo Noh, Seunghoon Hong, Bohyung Han

引用量:2654

論文連結(收錄於ICCV 2015):

https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Noh_Learning_Deconvolution_Network_ICCV_2015_paper.html

本文改進了FCN算法,通過學習深度反卷積網絡(deep deconvolution network)進行語義分割。

八名:Deep Learning Face Attributes in the Wild

Deep Learning Face Attributes in the Wild

作者單位:香港中文大學, 中國科學院深圳先進技術研究院

作者團隊:Ziwei Liu(劉子緯), Ping Luo, Xiaogang Wang, Xiaoou Tang(湯曉鷗)

引用量:2586

論文連結(收錄於ICCV 2015):

https://openaccess.thecvf.com/content_iccv_2015/html/Liu_Deep_Learning_Face_ICCV_2015_paper.html

本文的主要思想是通過學習兩個網絡來構建face attributes recognition的系統,其中一個用來face localization(LNet),另一個用來attribute prediction(ANet)。

第九名:Grad-CAM

Grad-CAM: Visual Explanations From Deep Networks via Gradient-Based Localization

作者單位:喬治亞理工學院, Facebook AI Research

作者團隊:Ramprasaath R. Selvaraju, Michael Cogswell等

引用量:2183

論文連結(收錄於ICCV 2017):

https://openaccess.thecvf.com/content_iccv_2017/html/Selvaraju_Grad-CAM_Visual_Explanations_ICCV_2017_paper.html

Grad-CAM

第10名:CRF-RNN

Conditional Random Fields as Recurrent Neural Networks

作者單位:牛津大學, 史丹福大學, 百度

作者團隊:Shuai Zheng, Sadeep Jayasumana, Bernardino Romera-Paredes, Vibhav Vineet, Zhizhong Su, Dalong Du, Chang Huang, Philip H. S. Torr

引用量:1997

論文連結(收錄於ICCV 2015):

https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Zheng_Conditional_Random_Fields_ICCV_2015_paper.html

CRF-RBB 結合了卷積神經網絡(CNNs)和條件隨機場(CRFs),使其能夠end-to-end的方式,利用back-propagation訓練整個網絡,避免了後向處理的過程。

侃侃

1. 何愷明是唯一有兩篇入圍前10的一作作者;

2. 何愷明、Ross Girshick 均有三篇論文入圍;

3. Facebook AI Research 有四篇論文入圍;

下載1

上述10篇論文已打包好,在CVer公眾號後回覆:ICCV引用量,即可下載全部論文

下載2

在CVer公眾號後臺回覆:OpenCV書籍,即可下載《Learning OpenCV 3》書籍和原始碼。註:這本書是由OpenCV發起者所寫,是官方認可的書籍。其中涵蓋大量圖像處理的基礎知識介紹,雖然API還是基於OpenCV 3.x,但結合此書和最新API,可以很好的學習OpenCV。

下載3

在CVer公眾號後臺回覆:CVPR2020,即可下載CVPR2020 2020代碼開源的論文合集

在CVer公眾號後臺回覆:ECCV2020,即可下載ECCV 2020代碼開源的論文合集

重磅!CVer-目標檢測 微信交流群已成立


掃碼添加CVer助手,可申請加入CVer-目標檢測 微信交流群,目前已匯集4100人!涵蓋2D/3D目標檢測、小目標檢測、遙感目標檢測等。互相交流,一起進步!


同時也可申請加入CVer大群和細分方向技術群,細分方向已涵蓋:目標檢測、圖像分割、目標跟蹤、人臉檢測&識別、OCR、姿態估計、超解析度、SLAM、醫療影像、Re-ID、GAN、NAS、深度估計、自動駕駛、強化學習、車道線檢測、模型剪枝&壓縮、去噪、去霧、去雨、風格遷移、遙感圖像、行為識別、視頻理解、圖像融合、圖像檢索、論文投稿&交流、PyTorch和TensorFlow等群。


一定要備註:研究方向+地點+學校/公司+暱稱(如目標檢測+上海+上交+卡卡),根據格式備註,可更快被通過且邀請進群

▲長按加群


▲長按關注我們

整理不易,請給CVer點讚和在看

相關焦點

  • NeurIPS 引用量最高的10篇論文!Faster R-CNN登頂!何愷明和孫劍均有兩篇論文入圍
    10篇論文均已整理完畢,詳見:接下來,Amusi 將繼續整理其他頂會,像NeurIPS、ICLR、ICML上也有很多優質的CV論文,而且有更多深度學習、機器學習基礎性研究工作。這個排名是依據過去五年發表研究的數據(覆蓋2015-2019年發表的文章),並包括截止2020年6月在谷歌學術中被索引的所有文章的引用量。本文就來盤點NeurIPS 2015-2019年引用量最高的10篇論文。
  • CVPR 引用量最高的10篇論文!何愷明ResNet登頂,YOLO佔據兩席!
    這個排名是依據過去五年發表研究的數據(覆蓋2015-2019年發表的文章),並包括截止2020年6月在谷歌學術中被索引的所有文章的引用量。眾所周知,CV領域的三大頂會就是:CVPR、ICCV和ECCV。本文就來盤點CVPR 2015-2019年引用量最高的10篇論文。
  • 【ICCV2017視覺盛宴概況】何愷明博士包攬最佳論文和最佳學生論文獎!Facebook成大贏家!
    Facebook成為最大贏家,其中Facebook 人工智慧實驗室研究科學家何愷明包攬最佳論文獎(Marr Prize)和最佳學生論文獎。賈揚清Caffe團隊獲得Everingham prize等。論文方面,錄取論文數目歷史最多。本屆會議收到來自世界各地的論文投稿2143篇,錄取621篇,其中口頭報告43篇,海報論文520篇,錄取率分別是2.09%和28.9%,可見競爭之激烈。
  • ICLR 引用量最高的10篇論文!Adam霸榜!引用量破5萬
    10篇論文均已整理完畢,詳見:接下來,Amusi 將繼續整理其他頂會,像NeurIPS、ICLR、ICML上也有很多優質的CV論文,而且有更多深度學習、機器學習基礎性研究工作。這個排名是依據過去五年發表研究的數據(覆蓋2015-2019年發表的文章),並包括截止2020年6月在谷歌學術中被索引的所有文章的引用量。本文就來盤點ICLR 2015-2019年引用量最高的10篇論文。
  • ECCV 引用量最高的10篇論文!SSD登頂!何愷明ResNet改進版位居第二
    ICCV 引用量最高的10篇論文,分別詳見:眾所周知,CV領域的三大頂會就是:CVPR、ICCV和ECCV。這個排名是依據過去五年發表研究的數據(覆蓋2015-2019年發表的文章),並包括截止2020年6月在谷歌學術中被索引的所有文章的引用量。本文就來盤點ECCV 2015-2019年引用量最高的10篇論文。
  • 何愷明等最新論文:實例分割全新方法TensorMask,效果比肩 Mask R-CNN
    【新智元導讀】FAIR何愷明、Ross等人最新提出實例分割的通用框架TensorMask,首次在定性和定量上都接近於 Mask R-CNN
  • 何愷明團隊:從特徵金字塔網絡、Mask R-CNN到學習分割一切
    特徵金字塔網絡(Feature Pyramid Networks)讓我們以現在著名的Feature Pyramid Networks(FPN)[1]開始,這是在CVPR 2017發表的論文,作者Tsung-Yi Lin,何愷明等人。FPN的論文真的很棒。構建一個每個人都可以在各種任務、子主題和應用領域中建立的基準模型並不容易。
  • 何愷明團隊計算機視覺最新進展:從特徵金字塔網絡、Mask R-CNN到學習分割一切
    他們對每個模塊的工作進行消融實驗,以證實論文開頭的宣稱。他們還基於DeepMask和SharpMask這兩篇論文展示了如何將FPN用於segmentation proposal生成。請閱讀原論文了解實現細節和實驗設置等。
  • ...兩項最佳論文獎!清華北航上交論文活躍度名列前十 | ICCV 2017
    何愷明供職的 Facebook 今年有15篇論文被收錄,其中三篇有他的名字;而這三篇中的兩篇就獲得了ICCV全部的兩項最佳論文獎,實在難得,令人豔羨!同在現場的知名機器學習與計算機視覺研究者王乃巖都在朋友圈開玩笑說:「肯定是Kaimimg說我不能掛兩個一作,要不就不能得兩個best paper了。。」
  • ICCV 2017獲獎論文公布 何愷明成為最大贏家!
    【網易智能訊 10月25日消息】當地時間10月22日,計算機視覺國際頂級會議International Conference on Computer Vision(ICCV 2017)在義大利威尼斯開幕。
  • 【前沿】何愷明大神ICCV2017最佳論文Mask R-CNN的Keras/TensorFlow/Pytorch 代碼實現
    spm=5176.8067841.wnnow.14.ZrBcrm新智元AI World 2017世界人工智慧大會開場視頻來源:專知【新智元導讀】何愷明大神的論文Mask R-CNN 獲得ICCV最佳論文 ,而關於這篇論文的TensorFlow\Pytorch\Keras
  • ICCV 2019最佳論文歸屬谷歌,中國入選論文最多,商湯57篇全球第一
    而中國AI獨角獸公司商湯,加上其聯合實驗室,共有57篇論文入選,其中包括口頭報告(Oral)論文11篇,成為公司維度上的全球No.1。此外,曠視、華為、百度和騰訊,也都有不俗表現。比如曠視完成了最重要比賽COCO物體檢測的三連冠。
  • 時隔一年,盤點CVPR 2019影響力最大的20篇論文
    CVPR 2019 已經過去一年了,本文盤點其中影響力最大的 20 篇論文,這裡的影響力以谷歌學術上顯示的論文的引用量排序,截止時間為
  • ResNet、Faster RCNN、Mask RCNN是專利算法嗎?盤點何愷明參與發明的專利
    作為計算機視覺領域當今翹楚,兩度獲得CVPR 最佳論文獎的何愷明大佬有很多論文都具有重大影響力。其部分論文引用數據:殘差網絡 ResNet 被引用 51939 次、目標檢測算法 Faster RCNN 被引用 20291 次、實例分割算法 Mask RCNN 被引用 7249 次,暗通道去霧被引用4274 次,這些知名的算法有成百上千的開源實現,也肯定被大量的商業公司使用,有沒有被申請專利?
  • ICML 2019收錄774篇論文:谷歌153篇,清華北大26篇
    據統計,今年大會收到3424份提交申請,共有774篇論文被收錄,接收率為22.6%。一位來自博世公司的網友Andreas Doerr對這份名單按作者和機構進行了分類統計。由於圖片尺寸較大,我們只展示其中一部分。
  • 深度學習用於目標檢測的論文及代碼集錦
    [5] Faster r-cnn: Towards real-time object detection with region proposal networksShaoqing Ren et al.
  • mask rcnn訓練自己的數據集
    3D視覺工坊的第67篇文章前言最近迷上了mask rcnn,也是由於自己工作需要吧,特意研究了其原始碼,並基於自己的數據進行訓練~本博客參考:https://blog.csdn.net/disiwei1012/article/details/79928679#commentsedit實驗目的
  • MaskRCNN源碼解讀
    沒有多餘的問文件,源碼都放在mrcnn中,readme裡面有詳細的介紹,為了了解maskrcnn的運行流程,最好的辦法就是將代碼邊運行邊調試。從samples下面的coco文件開始運行:最後計算了正樣本中的anchor和哪一個真實的框最接近,用真實的框和anchor計算出偏移值,並且將mask的大小resize成28*28的(我猜測利用的是雙線性差值的方式,因為mask的值不是0就是1,0是背景,一是前景)這些都是後面的分類和mask網絡要用到的真實的值。
  • Mask R-CNN原始碼終於來了,還有它背後的物體檢測平臺
    從Mask R-CNN論文亮相至今的10個月裡,關於它的討論幾乎都會以這句話收尾。現在,官方版開原始碼終於來了。同時發布的,是這項研究背後的一個基礎平臺:Detectron。除此之外,Detectron還包含了ICCV 2017最佳學生論文RetinaNet,Ross Girshick(RBG)此前的研究Faster R-CNN和RPN、Fast R-CNN、以及R-FCN的實現。