CVPR2019 | 29篇目標檢測相關論文匯總(部分含源碼)

2021-03-02 極市平臺

今天為大家分享 CVPR2019 目標檢測相關論文的匯總,本文首發於極市平臺知乎專欄

https://zhuanlan.zhihu.com/p/60823819,歡迎關注專欄獲取本系列後續更新~如有遺漏也歡迎大家留言補充或提出建議。

ps.極市也曾分享過一篇:CVPR2019目標檢測方法進展綜述,可以結合本文一起閱讀~

1、Stereo R-CNN based 3D Object Detection for Autonomous Driving
作者:Peiliang Li, Xiaozhi Chen, Shaojie Shen
論文連結:https://arxiv.org/abs/1902.09738


2、Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression
作者:Hamid Rezatofighi, Nathan Tsoi, JunYoung Gwak, Amir Sadeghian, Ian Reid, Silvio Savarese
論文連結:https://arxiv.org/abs/1902.09630
論文解讀:CVPR2019 | 目標檢測新文:Generalized Intersection over Union



3、ROI-10D: Monocular Lifting of 2D Detection to 6D Pose and Metric Shape 

作者:Fabian Manhardt, Wadim Kehl, Adrien Gaidon
論文連結:https://arxiv.org/abs/1812.02781


4、Bi-Directional Cascade Network for Perceptual Edge Detection
作者:Jianzhong He, Shiliang Zhang, Ming Yang, Yanhu Shan, Tiejun Huang
論文連結:https://arxiv.org/abs/1902.10903
Github源碼:

https://github.com/pkuCactus/BDCN


5、RepMet: Representative-based metric learning for classification and one-shot object detection
作者:Leonid Karlinsky, Joseph Shtok, Sivan Harary, Eli Schwartz, Amit Aides, Rogerio Feris, Raja Giryes, Alex M. Bronstein
論文連結:https://arxiv.org/abs/1806.04728


6、Region Proposal by Guided Anchoring
作者:Jiaqi Wang, Kai Chen, Shuo Yang, Chen Change Loy, Dahua Lin
論文連結:https://arxiv.org/abs/1901.03278
論文解讀:Guided Anchoring: 物體檢測器也能自己學 Anchor

Github連結:https://github.com/open-mmlab/mmdetection


7、Less is More: Learning Highlight Detection from Video Duration
作者:Bo Xiong, Yannis Kalantidis, Deepti Ghadiyaram, Kristen Grauman
論文連結:https://arxiv.org/abs/1903.00859


8、AIRD: Adversarial Learning Framework for Image Repurposing Detection
作者:Ayush Jaiswal, Yue Wu, Wael AbdAlmageed, Iacopo Masi, Premkumar Natarajan
論文連結:https://arxiv.org/abs/1903.00788


9、Feature Selective Anchor-Free Module for Single-Shot Object Detection
作者:Chenchen Zhu, Yihui He, Marios Savvides
論文連結:https://arxiv.org/abs/1903.00621
論文解讀:CVPR2019 | FSAF:來自CMU的Single-Shot目標檢測算法
一作直播:CVPR2019 專題直播 | CMU 諸宸辰:基於 Anchor-free 特徵選擇模塊的單階目標檢測


10、Learning Attraction Field Representation for Robust Line Segment Detection
作者:Nan Xue, Song Bai, Fudong Wang, Gui-Song Xia, Tianfu Wu, Liangpei Zhang
論文連結:https://arxiv.org/abs/1812.02122
代碼連結:

https://github.com/cherubicXN/afm_cvpr2019



11、Latent Space Autoregression for Novelty Detection
作者:Davide Abati, Angelo Porrello, Simone Calderara, Rita Cucchiara
論文連結:https://arxiv.org/abs/1807.01653
代碼連結: https://github.com/aimagelab/novelty-detection

12、Strong-Weak Distribution Alignment for Adaptive Object Detection
作者:Kuniaki Saito, Yoshitaka Ushiku, Tatsuya Harada, Kate Saenko
論文連結:https://arxiv.org/abs/1812.04798


13、Few-shot Adaptive Faster R-CNN
作者:Tao Wang, Xiaopeng Zhang, Li Yuan, Jiashi Feng
論文連結:https://arxiv.org/abs/1903.09372


14、Attention Based Glaucoma Detection: A Large-scale Database and CNN Model
作者:Liu Li, Mai Xu, Xiaofei Wang, Lai Jiang, Hanruo Liu
論文連結:https://arxiv.org/abs/1903.10831


15、Bounding Box Regression with Uncertainty for Accurate Object Detection(目標檢測邊界框回歸損失算法)
作者:Yihui He, Chenchen Zhu, Jianren Wang, Marios Savvides, Xiangyu Zhang
論文連結:https://arxiv.org/abs/1809.08545
代碼連結:https://github.com/yihui-he/KL-Loss

16、Precise Detection in Densely Packed Scenes
作者:Eran Goldman , Roei Herzig, Aviv Eisenschtat, Jacob Goldberger, Tal Hassner
論文連結:https://arxiv.org/abs/1904.00853


17、Activity Driven Weakly Supervised Object Detection
作者:Zhenheng Yang, Dhruv Mahajan, Deepti Ghadiyaram, Ram Nevatia, Vignesh Ramanathan
論文連結:https://arxiv.org/pdf/1904.01665.pdf


18、Monocular 3D Object Detection Leveraging Accurate Proposals and Shape Reconstruction
作者:Jason Ku, Alex D. Pon, Steven L. Waslander
論文連結:https://arxiv.org/pdf/1904.01690.pdf


19、Libra R-CNN: Towards Balanced Learning for Object Detection
作者:Jiangmiao Pang, Kai Chen, Jianping Shi, Huajun Feng, Wanli Ouyang, Dahua Lin
論文連結:https://arxiv.org/abs/1904.02701


20、Moving Object Detection under Discontinuous Change in Illumination Using Tensor Low-Rank and Invariant Sparse Decomposition
作者:Moein Shakeri, Hong Zhang
論文連結:https://arxiv.org/abs/1904.03175


21、Towards Universal Object Detection by Domain Attention
作者:Xudong Wang, Zhaowei Cai, Dashan Gao, Nuno Vasconcelos
論文連結:https://arxiv.org/abs/1904.04402
項目連結:

http://www.svcl.ucsd.edu/projects/universal-detection/


22、NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Detection
作者:Golnaz Ghiasi, Tsung-Yi Lin, Ruoming Pang, Quoc V. Le
論文連結:https://arxiv.org/abs/1904.07392


23、Deep Anomaly Detection for Generalized Face Anti-Spoofing
作者:Daniel Pérez-Cabo, David Jiménez-Cabello, Artur Costa-Pazo, Roberto J. López-Sastre
論文連結:https://arxiv.org/abs/1904.08241


24、Cascaded Partial Decoder for Fast and Accurate Salient Object Detection
作者:Zhe Wu, Li Su, Qingming Huang
論文連結:https://arxiv.org/abs/1904.08739



25、A Simple Pooling-Based Design for Real-Time Salient Object Detection
作者:Jiang-Jiang Liu, Qibin Hou, Ming-Ming Cheng, Jiashi Feng, Jianmin Jiang
論文連結:https://arxiv.org/abs/1904.09569
源碼連結:http://mmcheng.net/poolnet/

26、CapSal: Leveraging Captioning to Boost Semantics for Salient Object Detection
作者:Lu Zhang; Huchuan Lu ; Zhe Lin ; Jianming Zhang; You He
論文連結:https://drive.google.com/open?id=1JcZMHBXEX-7AR1P010OXg_wCCC5HukeZ (需要申請)
源碼連結:https://github.com/zhangludl/code-and-dataset-for-CapSal


27、Deep Fitting Degree Scoring Network for Monocular 3D Object Detection
作者:Lijie Liu1, Jiwen Lu, Chunjing Xu, Qi Tian, Jie Zhou
論文連結:https://arxiv.org/pdf/1904.12681.pdf


28、A Mutual Learning Method for Salient Object Detection with intertwined Multi-Supervision
作者:Runmin Wu, Mengyang Feng, Wenlong Guan, Dong Wang, Huchuan Lu, Errui Ding
論文連結:待定
源碼連結:

https://github.com/JosephineRabbit/MLMSNet


29、ScratchDet:Exploring to Train Single-Shot Object Detectors from Scratch(Oral)
作者:Rui Zhu, Shifeng Zhang, Xiaobo Wang, Longyin Wen, Hailin Shi, Liefeng Bo, Tao Mei
論文連結:https://arxiv.org/abs/1810.08425v3
源碼連結:

https://github.com/KimSoybean/ScratchDet
論文解讀:CVPR 2019 Oral | 京東AI研究院提出 ScratchDet:隨機初始化訓練SSD目標檢測器

相關焦點

  • CVPR2019| 05-17更新11篇論文及代碼合集(含一篇oral,視覺跟蹤/實例分割/行人重識別等)
    同時提供每月大咖直播分享、真實項目需求對接、乾貨資訊匯總,行業技術交流。點擊文末「閱讀原文」立刻申請入群~前段時間,計算機視覺頂會CVPR 2019 公布了接收結果,極市也對此做了相關報導:1300篇!CVPR2019接收結果公布,你中了嗎?。
  • CVPR2019無人駕駛相關論文
    點擊文末「閱讀原文」立刻申請入群~CVPR2019 accepted list ID已經放出,極市已將目前收集到的公開論文總結到github上(目前已收集210篇),後續會不斷更新,歡迎關注,也歡迎大家提交自己的論文:https://github.com/extreme-assistant/cvpr2019
  • CVPR 2017 全部及部分論文解讀集錦
    下面為我們整理的一些關於CVPR2017的論文解讀的總結。論文主要解決的是semantic segmentation中imbalanced training data distributions問題。在semantic segmentation數據集包括現實世界中存在明顯的長尾分布的問題,即大多數的數據組成了小部分的類別,因此會導致學習器更偏向於這些類別。
  • 300篇 CVPR 2019 Oral 論文精選匯總,值得一看的 CV 論文都在這裡
    今年有超過 5165 篇的大會論文投稿,最終錄取 1299 篇,其中 Oral 論文近 300 篇。為了方便社區開發者和學術青年查找和閱讀高價值論文,AI 研習社從入選的 Oral 論文中,按應用方向挑選了部分精華論文,貼在本文。
  • 投稿量激增56%,CVPR 2019接收論文的關鍵詞是什麼?
    本屆 CVPR 大會共收到 5165 篇有效提交論文,比去年增加了 56%。大會接收了其中的 1300 篇,接收率約為 25.1%。近日,一個 GitHub 項目對本屆大會的論文接收情況、關鍵詞等相關信息進行了可視化分析,也許能為我們提供有關計算機視覺熱門研究方向的洞見。
  • 做目標檢測,這6篇就夠了:CVPR 2020目標檢測論文盤點
    CVPR 2020 會議上,有哪些目標檢測論文值得關注?目標檢測是計算機視覺中的經典問題之一。憑藉大量可用數據、更快的 GPU 和更好的算法,現在我們可以輕鬆訓練計算機以高精度檢測出圖像中的多個對象。前不久結束的 CVPR 2020 會議在推動目標檢測領域發展方面做出了一些貢獻,本文就為大家推薦其中 6 篇有價值的目標檢測論文。
  • 視頻目標檢測大盤點
    為了便於大家的學習,本文分點講述了視頻目標檢測的七個方法,每種方法都附有相關論文連結以及方法的性能結果。>>加入極市CV技術交流群,走在計算機視覺的最前沿視頻目標識別是自主駕駛感知、監控、可穿戴設備和物聯網等應用的一項重要任務。由於圖像模糊、遮擋或不尋常的目標姿態,使用視頻數據進行目標識別比使用靜止圖像更具挑戰性。
  • CVPR 2020 目標檢測論文精選
    字幕組雙語原文:CVPR 2020 目標檢測論文精選英語原文:CVPR 2020: The Top Object Detection Papers翻譯:雷鋒字幕組(李珺毅、沫年惜雪)一、基於在點雲上的3D目標檢測的分層圖形網絡原文標題:A Hierarchical Graph Network for 3D Object Detection on Point Clouds這篇論文提出了一種基於圖卷積(gconv)的三維目標檢測層次圖網絡(hgnet)。
  • 2019年CVPR有哪些糟糕的論文?
    包括但不限於論文本身的寫作,創新點,提供的源碼,希望各位的真知灼見能給後來者啟發。另外,如果聽報告的時候,介紹裡說此人寫了幾百篇論文,我建議大家轉身就走,因為此人不會有什麼深刻的思想傳達給你。真心的建議大家進入科研領域後都仔細想想,是要一輩子做垃圾研究發一堆垃圾論文呢,還是沉下心來找好問題做好問題。對於一個科研人員來說,一輩子有一篇真正重要的論文就足夠了,甚至有可能在他死之前,論文的重要性都沒有被發現,這就是科研這份工作的規律。
  • 歷年 CVPR 最佳論文盤點
    AI 科技評論按:作為計算機視覺領域的頂級學術會議,CVPR 2019 近期公布了最終論文接收結果,引來學界密切關注。據悉,CVPR 2019 今年一共獲得 5165 篇有效提交論文,最終抉出了 1300 篇接收論文,接收率達到 25.2% 。
  • 旋轉目標(遙感/文字)檢測方法整理(2017-2019)
    relate work部分,趁機把近幾年遙感(主要關注)、場景文字旋轉目標檢測論文方法和code整理一下,時間倉促有疏漏之處望多多指出。DOTA旋轉目標賽道實時排名(2019年12-22)以下方法介紹按照論文提交時間順序1.RRPN(兩階段文字檢測 復旦大學等)時間:3 Mar 2017題目:《Arbitrary-Oriented Scene
  • CVPR 2020文本圖像檢測與識別論文/代碼
    ,算法主要領域:圖像與視頻處理,圖像分類&檢測&分割、視覺目標跟蹤、視頻內容分析、人體姿態估計、模型加速、網絡架構搜索(NAS)、生成對抗(GAN)、光學字符識別(OCR)、人臉識別、三維重建等方向。
  • ICML 2021 | 時間序列相關論文一覽(附原文源碼)
    今年 ICML 共有5513篇有效投稿,其中1184篇論文被接收,接收率為21.4%,基本與去年持平。在被接收的論文中,有166篇長文和1018篇短文。接收論文列表可以訪問原文獲取。本文盤點了ICML 2021有關時間序列領域的最新研究成果,為大家的科研助力:時間序列分類與預測:6篇時間序列檢測:1篇時間神經網絡:6篇時間表示與分析: 4篇時空分析·預測:2篇
  • 歷年 CVPR 最佳論文盤點(2000 年——2018 年)
    雷鋒網 AI 科技評論按:作為計算機視覺領域的頂級學術會議,CVPR 2019 近期公布了最終論文接收結果,引來學界密切關注。據悉,CVPR 2019 今年一共獲得 5165 篇有效提交論文,最終抉出了 1300 篇接收論文,接收率達到 25.2% 。
  • 論文精選—CVPR2020目標檢測文章大盤點
    一、引言CVPR是計算機視覺領域最重要的國際性會議之一,官方公布2020年共計收到有效投稿6656篇,
  • R-CenterNet:用CenterNet對旋轉目標進行檢測
    ,本文不對CenterNet原理進行詳細解讀,如果對CenterNet原理不了解,建議簡單讀一下原論文然後對照本文代碼理解(對原版CenterNet目標檢測代碼進行了極大程度精簡)。,所以把各種3D檢測等都刪了,模型架構也拆了只保留了有用部分,並對代碼架構進行了重構,方便自己閱讀以及魔改。
  • 從CVPR2019看計算機視覺的最新趨勢
    2019年IEEE計算機視覺與模式識別大會(CVPR)於今年6月16日至20日舉行。CVPR是計算機視覺領域世界三大學術會議之一(與ICCV和ECCV並列)。今年共收到1300篇論文,錄取率達到創紀錄的5165篇(25.2%)。
  • CVPR 2019 | 天秤座R-CNN:全面平衡的目標檢測器
    這是一篇浙江大學和香港中文大學發表於 CVPR 2019 的論文,這篇文章十分有趣,網友戲稱:「無痛漲點,實現簡單,良心 paper」,在我看來確實是這樣的,沒有太大的改造結構,不需增加計算成本的條件下,居然能漲兩個點 mAP
  • 基石小夥伴 | 商湯科技62篇論文入選CVPR 2019,多個競賽項目奪冠
    作為與ICCV、ECCV並稱為計算機視覺領域三大國際會議之一,本屆CVPR大會共收到5265篇有效投稿,接收論文1300篇,接收率為25.2%。相比2018年,本屆CVPR的論文提交數量增加了56%,但論文接收率卻下降了3.9%,可見論文入選難度有很大提升,也可以看出AI學術會議的關注度也愈加火熱。
  • CVPR 2017國內外亮點論文匯集:史上最盛大會議,華人佔據半壁江山
    作為領域內具有權威性的會議,今年的 CVPR 共收到有效提交論文 2680 篇,其中 2620 篇論文經過完整評議,最終總計 783 篇被正式錄取(佔總提交數的 29%)。被接收的論文中,71 篇將進行長口頭演講,144 篇進行短亮點演講。 華人不僅佔據了論文作者的半壁江山,國內眾多人工智慧公司也已摩拳擦掌要在 CVPR 大會上大顯身手了。