商湯科技入選 CVPR 2018 的 44 篇論文,都研究什麼?

2020-11-22 雷鋒網

論文

名稱:CVPR

時間:2018

企業:商湯科技SenseTime

雷鋒網(公眾號:雷鋒網) AI 科技評論按:本文由商湯科技獨家投稿,AI 科技評論獲其授權轉載。

全球計算機視覺頂級會議 IEEE CVPR 2018 (Computer Vision and Pattern Recognition,即 IEEE 國際計算機視覺與模式識別會議) 即將於六月在美國鹽湖城召開,本屆大會總共錄取來自全球論文 979 篇。CVPR 作為計算機視覺領域級別最高的研究會議,其錄取論文代表了計算機視覺領域在 2018 年最新和最高的科技水平以及未來發展潮流。

CVPR 官網顯示,今年有超過 3300 篇的大會論文投稿,錄取的 979 篇論文,比去年增長了 25%(2017 年論文錄取 783 篇)。這些錄取的最新科研成果,涵蓋了計算機視覺領域各項前沿工作。CVPR 2018 包括 21 場 tutorials、48 場 workshops,並且有來自全球各地超過 115 家企業將入駐今年 CVPR 工業展覽。

商湯科技、香港中文大學-商湯科技聯合實驗室以及其他商湯科技聯合實驗室共有 44 篇論文被本屆 CVPR 大會接收,其中包括口頭報告論文 3 篇(錄取率僅 62/3300 = 1.88%),亮點報告論文 13 篇,論文錄取數量相較於 CVPR 2017 的 23 篇又有大幅度提高,成績斐然。全球領先的科研成果展示了商湯科技智能視覺領域強大的人才儲備、科研底蘊和創新能力。

商湯科技 CVPR 2018 錄取論文在以下領域實現突破:大規模分布式訓練、人體理解與行人再識別、自動駕駛場景理解與分析、底層視覺算法、視覺與自然語言的綜合理解、物體檢測、識別與跟蹤、深度生成式模型、視頻與行為理解等。這些新穎的計算機視覺算法不僅有著豐富的應用場景,使得更多的智能視覺算法能應用於日常生活之中,還為後續研究提供了可貴的經驗和方向。

大規模分布式訓練

代表性論文:Oral – 深度增強學習自動網絡結構設計

本文致力於解決深度神經網絡結構的自動設計問題,與一般人工的結構設計不同,本文提出了一種高效算法,通過強化學習來自動設計最優的網絡結構。傳統的神經網絡結構設計通常需要大量專家的知識和試錯成本,並且甚至還需要一些靈感,每年僅有幾個重要的網絡結構被設計出來,因此,人工設計網絡結構是一個難度極高的工作。近期的網絡結構自動搜索的算法通常需要巨大的計算資源(數百塊 GPU,近一個月的訓練),並且生產的模型可遷移性不強,難以做到真正的實用化。

本文提出了一種基於強化學習的網絡結構自動設計算法,通過「網絡塊」的設計思想,讓搜索空間大大降低,並且使設計的網絡具有非常強的可遷移性。同時,本文使用「提前停止」和分布式架構來加速整個網絡結構學習過程,達到了百倍於之前算法的速度(32 塊 GPU,3 天的訓練)。實驗表面,其生成的網絡結構在 CIFAR 數據集上達到並且超越人類設計的網絡結構的精度,並且其結構可以遷移到大規模的 ImageNet 數據上,取得良好的性能。

人體理解與行人再識別

代表性論文:Oral – 基於組一致性約束條件的行人再識別

行人再識別是新一代智能安防系統中的重要組件之一。給定一幅行人圖像,行人再識別要求跨不同攝像頭,對同一行人基於其視覺外觀進行準確匹配和識別。現有深度學習算法通常使用過於局部的約束損失函數進行行人特徵學習,因而不能精確的學習行人圖像之間的視覺相似度。本文針對該問題提出一種新穎的組一致性約束條件,並通過連續條件隨機場對該約束條件進行建模。將該連續條件隨機場加入深度神經網絡,從而實現該深度模型的端對端訓練。實驗結果表明該一致性條件在訓練與測試中均能夠大幅度提升最終視覺特徵的魯棒性與判別性,實現高精度的行人再識別。

自動駕駛場景理解

代表性論文:Spotlight – 極低延遲的視頻語義分割

本文關注面向自動駕駛場景的視頻實時語義分割問題,雖然近年來圖像語義分割取得很大的進展,但是對於面向視頻的語義分割任務仍然存在挑戰。其主要困難在於:1)視頻需要更多的計算量;2)許多實時的應用如自動駕駛需要實現低延遲性。

本文致力於解決這兩方面的難題,同時儘可能的保證分割的精度。在視頻分割問題中,鄰近幀之間的語義標籤的變化相對較小,因此不必每幀都使用一個完整的網絡來提取語義標籤。基於這種認識,本文提出了一個如圖所示的語義分割的框架,把整個網絡分為高層部分和低層部分,低層部分消耗較少的計算;本文的框架只在關鍵幀運行完整的網絡來提取高層特徵進行語義分割,而在其他幀則從上一個關鍵幀傳播特徵來進行語義分割。相應的框架由兩部分組件構成:1)關鍵幀調度模塊,以及 2)特徵跨幀傳播模塊,其都基於低層特徵進行相應的計算,因此相對完整的網絡計算量小很多。同時為了減少延遲,在檢測到當前幀為關鍵幀時,使用了一個低延遲的調度策略。本文提出的方法在兩個數據集上均驗證了我們方法的有效性,取得了較低延遲並保持精確的分割精度。

Spotlight – 基於單視圖的立體匹配

面向自動駕駛場景的單目深度估計方法,通常利用一個視角的圖像數據作為輸入,直接預測圖片中每個像素對應的深度值,這就導致了現有方法通常需要大量的帶深度信息標註的數據。近期的研究提出了在訓練過程引入了幾何約束的改進,但是在測試過程仍然缺乏顯式的幾何約束。本文提出把單目深度估計分解為兩個子過程,即視圖合成過程以及雙目匹配過程,通過這樣分解之後,使得所提出的模型既可以在測試階段顯式地引入幾何約束又可以極大的減少對帶深度標註數據的依賴。實驗證明,本文提出的方法僅利用少量的深度數據就可以在 KITTI 數據集上超過之前的所有方法,並首次僅靠單目圖像數據就超過了雙目匹配算法 Block Matching,進一步推動了單目深度估計技術的落地。

底層視覺算法

代表性論文:Spotlight – 基於深度增強學習的普適圖像復原

本文提出了一種新穎的深度學習圖像復原方法。大部分已有復原算法僅面向解決某類特定的圖像復原問題,因而對各種不同類別的降質圖像缺乏普適性。針對該問題,本文提出的 RL-Restore 算法先訓練一系列針對不同降質圖像的小型神經網絡;同時設計一種評價圖像復原質量的獎勵函數,使用增強學習算法學習如何將這些小型神經網絡進行合理組合。針對不同的降質圖像,獲得不同的復原算法組件的組合,實現對複雜降質圖像的有效復原。

視覺與自然語言的綜合理解

代表性論文:Spotlight – 面向視覺問題回答的對偶視覺問題生成

針對開放式視覺問答(Open-ended VisualQuestion Answering)中訓練數據過少的問題,本文提出了一種「可逆問答網絡」。該模型可以通過重組不同模塊,使一組模型同時完成「問題回答」和「問題生成」兩種互逆的兩個任務。該模型通過充分利用視覺問答和視覺問題生成的對偶性,提升模型對於有限訓練數據的利用效率。該方法採用兩個任務同時訓練同一模型,使網絡能夠對問題和圖片之間的聯繫有更深的理解,從而在問題生成和問題回答兩個任務上都取得了更好的精度和效果。

人臉識別與人臉分析

代表性論文:Poster – 超越人臉識別的人臉解離特徵空間學習

本文同時解決人臉識別、屬性分類和任意人臉生成這三個問題。大多數人臉特徵學習的工作通常能夠讓網絡學習得到一個具有極強身份或屬性區分度的特徵,以應用於人臉識別、屬性分類等任務;或者學習一個具有全局信息的特徵,以應用於人臉生成和編輯等應用。為什麼不能學習到一個完備的特徵空間並使得語義信息高度區分化,進而實現一個特徵能夠完成所有的任務呢?本文提出了一個信息蒸餾與驅逐網絡的框架,只使用身份 ID 作為監督信息,學習到了一個同時具有極強信息區分度且包含全局信息的稠密凸特徵空間。在 LFW、LFWA 和 CelebA 等數據集上的實驗表明,人臉在該特徵空間下的投影具有極高的身份、屬性識別能力,且該空間內的任意一個點均具有較強的身份和屬性語義,並可生成具有該語義的人臉圖像。

Poster – 基於邊緣感知的人臉關鍵點定位

本文提出一種基於邊緣感知的人臉關鍵點檢測算法,將人臉邊緣線所描述的結構信息融入到關鍵點檢測中,極大地提升了算法在大側臉、誇張表情、遮擋、模糊等極端情況下的檢測精度。文章主要解決了兩大問題:1. 人臉關鍵點在各個數據集間歧義性,定義不一致問題。文章通過捕捉對於人臉更通用的邊緣線信息,將其作為人臉到關鍵點的中間媒介,使得不同數據集即使存在關鍵點差異,仍然可以相互輔助訓練。2. 複雜情況下關鍵點檢測精度問題。本文首先通過消息傳遞結合對抗學習得到高精度的邊緣線檢測結果,再將邊緣線信息多語義層次地融合到關鍵點檢測中,使得算法在複雜情況下的魯棒性大幅提升。

另外,文章還提出了一個新的人臉關鍵點檢測數據集 Wider Facial Landmarksin-the-wild (WFLW),包含 10,000 張帶有 98 點和 6 屬性標註的人臉數據,旨在幫助學界更有效的評估關鍵點算法在各種條件下的魯棒性。

物體檢測、識別與跟蹤

代表性論文:Spotlight – 基於孿生候選區域網絡的高性能視覺跟蹤


本文提出一種基於端到端深度學習框架的高性能單目標跟蹤算法。現有的單目標跟蹤算法通常較難兼顧性能和速度,僅能在某一指標佔優。本文利用孿生(Siamese)網絡和區域候選網絡(Region Proposal Network),構建了一種高速高精度的單目標跟蹤算法。兩個子網絡通過卷積操作升維,統一在一個端到端的深度神經網絡框架裡。訓練過程中,算法可以利用擁有密集標註(VID)和稀疏標註(YoutubeBB)的數據集進行訓練。相較於現有方法,稀疏標註的數據集大大增加了訓練數據來源,從而可以對深度神經網絡進行更充分的訓練;區域候選網絡中的坐標回歸可以讓跟蹤框更加準確,並且省去多尺度測試耗費的時間。實驗方面,本文提出的跟蹤算法能在 160 幀速度下達到 VOT2015 和 VOT2016 數據集上目前的先進水平。

Poster – 快速的端到端多角度文字檢測與識別方法


本文首次提出了端到端的多角度文字檢測與識別方法。文字檢測與識別 (OCR) 是計算機視覺領域的經典問題,過去的做法將文字檢測與識別看做兩個問題分別解決。本文提出了一個端到端的方法同時進行文字檢測與識別,驗證了這兩個任務相輔相成,共同監督網絡訓練可以讓這兩個任務取得更好的精度。由於兩個任務共用一個特徵提取的網絡,速度也是分別進行文字檢測與識別的兩倍左右。同時本文也提出了 RoIRotate 操作,其擴展了 RoIAlign,可以應用於旋轉物體的檢測。本文在多個數據集上超過了現有方法。

深度生成式模型

代表性論文:Poster – 基於特徵裝飾的實時零點風格遷移

目前針對圖像風格化的實時應用,大多需要針對特定的風格圖來設計特定的風格遷移模型;如果需要實現對於任意風格圖的遷移,計算複雜度和遷移效果大多不能得到保證。本文提出一種實時零點圖像風格遷移模型,實現對於任意風格圖像的多尺度高質量風格化遷移。該方法基於名為風格裝飾器的特徵遷移網絡結構,可以容易地嵌入圖像重構網絡中來達到多尺度的風格特徵遷移。該網絡結構使得生成的風格化圖像充分表達風格圖中的具體紋理模式,同時保留原圖中的語義信息。實驗表明,該網絡對各種類別的風格圖都有較高的風格化能力,並且可以有效擴展到多風格遷移和視頻風格遷移等應用中。



附錄:

商湯科技及商湯科技聯合實驗室共有 44 篇論文被接收,具體如下:

1.3D Human Pose Estimation in the Wild by Adversarial Learning

Wei Yang, Wanli Ouyang, Xiaolong Wang, Xiaogang Wang

2. Attention-aware Compositional Network for Person Re-Identification

Jing Xu, Rui Zhao, Feng Zhu, Huaming Wang, Wanli Ouyang

3. Avatar-Net: Multi-scale Zero-shot Style Transfer by Feature Decoration

Lu Sheng*, Jing Shao*, Ziyi Lin and Xiaogang Wang (*equal contribution)

4. Beyond Holistic Object Recognition:Enriching Image Understanding with Part States

Cewu Lu, Hao Su, Yonglu Li, Yongyi Lu, Li Yi, Chi-Keung Tang, Leonidas J. Guibas

5. Collaborative and Adversarial Network for Unsupervised domain adaptation

Weichen Zhang, Wanli Ouyang, Dong Xu, Wen Li

6. Context Encoding for Semantic Segmentation

Hang Zhang, Kristin Dana, Jianping Shi, Zhongyue Zhang, Xiaogang Wang, Ambrish Tyagi, Amit Agrawal

7. Deep Cocktail Networks: Multi-source Unsupervised Domain Adaptation with Category Shift

Ruijia  Xu, Ziliang  Chen, Wangmeng  Zuo, Junjie  Yan, Liang  Lin

8. Deep Group-shuffling Random Walk for Person Re-identification

Yantao Shen, Hongsheng Li, Tong Xiao, Shuai Yi, Dapeng Chen, Xiaogang Wang

9. Dynamic Scene Deblurring Using Spatially Variant Recurrent Neural Networks

Jiawei Zhang, Jinshan Pan, Jimmy Ren, Yibing Song, Linchao Bao, Rynson Lau, Ming-Hsuan Yang

10. Eliminating Background-bias for Robust Person Re-identification

Maoqing Tian, Hongsheng Li, Shuai Yi, Xuesen Zhang, Jianping Shi, Junjie Yan, Xiaogang Wang

11. End-to-End Deep Kronecker-Product Matching for Person Re-identification

Yantao Shen, Tong Xiao, Hongsheng Li, Shuai Yi, Xiaogang Wang

12. End-to-end Flow Correlation Tracking with Spatial-temporal Attention

Zheng Zhu, Wei Wu, Wei Zou, Junjie Yan

13. Exploring Disentangled Feature Representation Beyond Face Identification

Yu Liu*, Fangyin Wei*, Jing Shao*, LuSheng, Junjie Yan and Xiaogang Wang (*equal contribution)

14. Environment Upgrade Reinforcement Learning for Non-differentiable Multi-stage Pipelines

Shuqin Xie, Zitian Chen, Chao Xu, Cewu Lu

15. FOTS: Fast Oriented Text Spotting with a Unified Network

Xuebo Liu, Ding Liang, Shi Yan, Dagui Chen, Yu Qiao, Junjie Yan

16. GeoNet: Unsupervised Learning of Dense Depth, Motion Field and Camera Pose

Zhichao Yin, Jianping Shi

17. Group Consistent Similarity Learning via Deep CRFs for Person Re-Identification

Dapeng Chen, Dan Xu, Hongsheng Li, Nicu Sebe, Xiaogang Wang

18. High Performance Visual Tracking with Siamese Region Proposal Network

Bo Li, Wei Wu, Zheng Zhu, Junjie Yan

19. ID-GAN: Learning a Symmetry Three-Player GAN for Identity-Preserving Face Synthesis

Yujun Shen, Ping Luo, Junjie Yan, Xiaogang Wang, Xiaoou Tang

20. Learning a Toolchain for Image Restoration

Ke Yu, Chao Dong, Liang Lin, Chen Change Loy

21. Learning Dual Convolutional Neural Networks for Low-Level Vision

Jinshan Pan, Sifei Liu, Deqing Sun, Jiawei Zhang, Yang Liu, Jimmy Ren, Zechao Li, Jinhui Tang, Huchuan Lu, Yu-Wing Tai, Ming-Hsuan Yang

22. Learning Globally Optimized Object Detector via Policy Gradient

Yongming Rao, Dahua Lin, Jiwen Lu

23. LiteFlowNet: A Lightweight Convolutional Neural Network for Optical Flow Estimation

Tak Wai Hui, Xiaoou Tang, Chen Change Loy

24. Low-Latency Video Semantic Segmentation

Yule Li, Jianping Shi, Dahua Lin

25. Look at Boundary: A Boundary-Aware Face Alignment Algorithm

Wayne Wu, Chen Qian, Shuo Yang, Wang Quan

26. LSTM Pose Machines

Yue Luo, Jimmy Ren, Zhouxia Wang, Wenxiu Sun, Jinshan Pan, Jianbo Liu, Jiahao Pang, Liang  Lin

27. Mask-guided Contrastive Attention Model for Person Re-Identification

Chunfeng Song, Yan Huang, Wanli Ouyang, Liang Wang

28. Optical Flow Guided Feature: A Fast and Robust Motion Representation for Video Action Recognition

Shuyang Sun, Zhanghui Kuang, Lu Sheng, Wanli Ouyang, Wei Zhang

29. Optimizing Video Object Detection via a Scale-Time Lattice

Kai Chen, Jiaqi Wang, Shuo Yang, Xingcheng Zhang, Yuanjun Xiong, Chen Change Loy, Dahua Lin

30. PAD-Net: Multi-Tasks Guided Prediciton-and-Distillation Network for Simultaneous Depth Estimation and Scene Parsing

Dan Xu, Wanli Ouyang, Xiaogang Wang, Nicu Sebe

31. Path Aggregation Network for Instance Segmentation

Shu Liu, Lu Qi, Haifang Qin, Jianping Shi, Jiaya Jia

32. Pose-Robust Face Recognition via Deep Residual Equivariant Mapping

Kaidi Cao, Yu Rong, Cheng Li, Xiaoou Tang, Chen Change Loy

33. Practical Block-wise Neural Network Architecture Generation

Zhao Zhong, Junjie Yan, Wei Wu, Jing Shao, Cheng-lin Liu

34. Recognize Actions by Disentangling Components of Dynamics

Yue Zhao, Yuanjun Xiong, Dahua Lin

35. Recovering Realistic Texture in Image Super-resolution by Spatial Feature Modulation

Xintao Wang, Ke Yu, Chao Dong, Chen Change Loy

36. Single View Stereo Matching

Yue Luo, Jimmy Ren, Mude Lin, Jiahao Pang,Wenxiu Sun, Hongsheng Li, Liang Lin

37. Temporal Hallucinating for Action Recognition with Few Still Images

Lei Zhou, Yali Wang, Yu Qiao

38. Towards Human-Machine Cooperation: Evolving Active Learning with Self-supervised Process for Object Detection

Keze Wang, Xiaopeng Yan, Lei Zhang, Liang Lin

39. Unifying Identification and Context Learning for Person Recognition

Qingqiu Huang, Yu Xiong, Dahua Lin

40. Unsupervised Feature Learning via Non-Parametric Instance-level Discrimination

Zhirong Wu, Yuanjun Xiong, Stella Yu, Dahua Lin

41. Video Person Re-identification with Competitive Snippet-similarity Aggregation and Co-attentive Snippet Embedding

Dapeng Chen, Hongsheng Li, Tong Xiao, Shuai Yi, Xiaogang Wang

42. Visual Question Generation as Dual Task of Visual Question Answering

Yikang Li, Nan Duan, Bolei Zhou, Xiao Chu, Wanli Ouyang, Xiaogang Wang

43. Weakly Supervised Human Body Part Parsing via Pose-Guided Knowledge Transfer

Hao-Shu Fang, Guansong Lu, Xiaolin Fang, Jianwen Xie, Yu-Wing Tai, Cewu Lu

44. Zoom and Learn: Generalizing Deep Stereo Matching to Novel Domains

Jiahao Pang, Wenxiu Sun, Chengxi Yang, Jimmy Ren, Ruichao Xiao, Jin Zeng, Liang Lin

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 商湯科技44篇論文入選CVPR 2018
    據CVPR官網顯示,今年有超過3300篇的大會論文投稿,錄取的979篇論文,比去年增長了25%(2016年論文錄取783篇)。這些錄取的最新科研成果,涵蓋了計算機視覺領域各項前沿工作。  商湯科技、香港中文大學-商湯科技聯合實驗室以及其他商湯科技聯合實驗室共有44篇論文被本屆CVPR大會接收,其中包括口頭報告論文3篇(錄取率僅62/3300= 1.88%),亮點報告論文13篇,論文錄取數量相較於CVPR 2017的23篇又有大幅度提高,成績斐然。
  • 一騎絕塵 商湯科技 44 篇論文入選 CVPR 2018
    CVPR 作為計算機視覺領域級別最高的研究會議,其錄取論文代表了計算機視覺領域在 2018 年最新和最高的科技水平以及未來發展潮流。CVPR 官網顯示,今年有超過 3300 篇的大會論文投稿,錄取的 979 篇論文,比去年增長了 25%(2016 年論文錄取 783 篇)。這些錄取的最新科研成果,涵蓋了計算機視覺領域各項前沿工作。
  • 一騎絕塵 商湯科技44篇論文入選CVPR 2018
    CVPR作為計算機視覺領域級別最高的研究會議,其錄取論文代表了計算機視覺領域在2018年最新和最高的科技水平以及未來發展潮流。CVPR官網顯示,今年有超過3300篇的大會論文投稿,錄取的979篇論文,比去年增長了25%(2016年論文錄取783篇)。這些錄取的最新科研成果,涵蓋了計算機視覺領域各項前沿工作。
  • CVPR 2020商湯斬獲3冠!62篇論文入選,算法工廠憑什麼領跑行業?
    本屆 CVPR 號稱十年來最難的一屆,共接收 6656 篇論文,中選 1470 篇,錄用率僅為 22%,為十年來最低的一次。不過,中國軍團依然表現亮眼。學術界清華領銜,商湯則以62 篇論文入選的成績,領跑產業界。成績亮眼,卻有些見怪不怪。畢竟,這已經不是商湯第一次在頂會上「一騎絕塵」。
  • CVPR 2018 | 商湯科技Oral論文詳解:BlockQNN自動網絡設計方法
    距離全球計算機視覺頂級會議IEEE CVPR 2018 (IEEE國際計算機視覺與模式識別會議) 召開的腳步越來越近。上周,商湯科技宣布以44篇論文入選CVPR 2018,吸引了諸多朋友點讚。接下來幾周,我們將陸續發布商湯科技入選CVPR 2018的重點論文解讀報導,歡迎大家關注。
  • CVPR 2017國內外亮點論文匯集:史上最盛大會議,華人佔據半壁江山
    文後我們附上了機器之心此前報導過的 CVPR 2017 論文。  產業界 CVPR 2017 論文  有眾多業界公司參與了 CVPR 2017。據大會官網的數據統計,全球共有約 90 家企業參與到本次大會中。海外科技巨頭谷歌、微軟、Facebook、亞馬遜、蘋果、英特爾、英偉達等,毫無意外都有論文被接收。
  • 從20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017
    根據組委會公開的數字,會議 40% 的論文投稿來自中國的研究者。在中國的人工智慧浪潮中,商湯科技以及它與港中文的聯合實驗室無疑是其中最有代表性的力量。在本屆 ICCV 大會,商湯科技與香港中大-商湯科技聯合實驗室共發表了 20 篇論文,其中包括 3 篇 Oral (錄取率僅 2.09%) 和 1 篇 Spotlight,領先 Facebook(15 篇)、Google Research(10 篇)等科技巨頭。
  • 年度最精彩研究,CVPR 2017六篇最佳論文介紹(附打包下載)| CVPR...
    雷鋒網(公眾號:雷鋒網) AI 科技評論對6篇獲獎論文做了簡要介紹如下。CVPR最佳論文本屆CVPR共有兩篇最佳論文,其中就有一篇來自蘋果。這篇論文就對這種趨勢進行了深入的研究,並提出了密集卷積網絡(DenseNet),其中的每一層都和它之後的每一層做前饋連接。對於以往的卷積神經網絡,網絡中的每一層都和其後的層連接,L層的網絡中就具有L個連接;而在DenseNet中,直接連接的總數則是L(L+1)/2個。
  • CVPR,華人包攬!斬獲全部獎項,近四成中國作者,清華最多
    最佳論文、最佳學生論文,每年兩個最受矚目獎項論文一作都是華人,吳尚哲和Zhiqin Chen。經典論文獎,同樣被華人一作的論文拿下。值得一提的是,這項研究的第一作者,是牛津大學視覺幾何組博士生吳尚哲,師從「歐洲計算機科學家第一人」 Andrew Zisserman 及其弟子 Andrea Vedaldi。吳尚哲本科畢業於香港科技大學,曾在商湯、騰訊優圖、Google AI 實習。
  • CVPR 2018 中國論文分享會之「分割與檢測」
    第二個報告由來自商湯科技的石建萍博士介紹了商湯科技在自動駕駛相關問題中的研究工作,分別包括場景理解、物體理解、視頻理解和 3D 場景結構理解。其中物體理解方面的工作在去年 COCO 物體分割和物體識別中分別獲得第一名和第二名的成績。
  • 歷年 CVPR 最佳論文盤點(2000 年——2018 年)
    雷鋒網 AI 科技評論按:作為計算機視覺領域的頂級學術會議,CVPR 2019 近期公布了最終論文接收結果,引來學界密切關注。據悉,CVPR 2019 今年一共獲得 5165 篇有效提交論文,最終抉出了 1300 篇接收論文,接收率達到 25.2% 。
  • CVPR 2018 中國論文分享會 之「人物重識別及追蹤」
    隨後是由港中文-商湯聯合實驗室的李鴻升教授介紹了他們在行人重識別研究中的新視角。李鴻升教授在今年的 CVPR 中共有 7 篇入選論文,這裡他只介紹了其中兩篇。第一篇為 oral 論文,他們考慮到圖片之間具有組相似性,而現有的方法大多忽視了這種相似性;基於這種思考,他們提出了用組相似性的約束的全局 loss 函數,取代了之前只是基於局部的 loss 函數。第二篇論文中他們發現圖片背景對模型重識別行人有很大的影響。最後由來自商湯科技的武偉博士介紹了他們在目標追蹤方面的工作。
  • 85種期刊96篇論文上榜!科協優秀科技論文入選名單發布
    近日,中國科學技術協會公布了第五屆優秀科技論文遴選計劃入選論文名單,來自85種國內科技期刊的96篇論文入選中國科協優秀科技論文遴選計劃旨在鼓勵科技工作者多出科研精品和原創性研究成果,引導更多優秀成果在我國科技期刊首發
  • 十年來最難的一屆CVPR 酷家樂兩篇論文成功入選
    作為十年來論文接受率最低的一屆CVPR,足見CVPR2020沉甸甸的含金量。而在入選的中國企業名單中,除了百度、騰訊、華為、曠視,家居SaaS獨角獸酷家樂也赫然在列。資料顯示,本屆CVPR共收到6656篇有效投稿,比去年增加了近29%,其中有1470篇論文被接收,接收率約22%,是近十年接受率最低的一屆。被錄取的論文主要涵蓋計算機視覺領域的最新科研成果。值得注意的是,深根於家居行業,酷家樂前沿技術實驗室KooLab遞交的兩篇論文皆被錄用,躋身中國論文發布成功的少數科技公司之一。
  • 圖鴨科技 CVPR 2018 圖像壓縮挑戰賽奪冠,獲獎論文全解讀
    名次:1
  • 十年來最難的一屆CVPR:接收率22%,百度入選19篇,曠視17篇
    雖然入選論文榜單已經放出來了,不過CVPR大會還要等幾個月,會於6月中旬在西雅圖舉辦,除了主會議之外,還有70個Workshop。不過,考慮到籤證和疫情的原因,可能國內會有不少作者去不成這次大會了。另外國內方面,包括百度、騰訊、曠視、華為、虎牙等在內的諸多國內科技公司,也有論文入選。
  • ...院論文入選《麻省理工科技評論》「The Best of the Physics ar...
    優必選研究院再次獲得國際學術界認可,論文《Evolutionary Generative Adversarial Networks》入選《麻省理工科技評論》(MIT Technology Review)「The Best of the Physics arXiv」。
  • 《煤炭學報》再有1篇論文入選!第五屆中國科協優秀科技論文公布
    【能源人都在看,點擊右上角加'關注'】近日,中國科協辦公廳發布了第五屆中國科協優秀科技論文遴選計劃入選論文名單。于斌教授級高級工程師2016年3月發表在《煤炭學報》的論文「特厚煤層綜放開採大空間採場覆巖結構及作用機制」成功入選,截至目前,該論文在中國知網被引用次數100次,下載1197次。于斌教授級高級工程師長期從事煤礦巖層控制與安全高效開採工程技術的研究。
  • 300篇 CVPR 2019 Oral 論文精選匯總,值得一看的 CV 論文都在這裡
    今年有超過 5165 篇的大會論文投稿,最終錄取 1299 篇,其中 Oral 論文近 300 篇。為了方便社區開發者和學術青年查找和閱讀高價值論文,AI 研習社從入選的 Oral 論文中,按應用方向挑選了部分精華論文,貼在本文。
  • 1300篇!CVPR 2019錄取結果公布,7篇新鮮好文推薦
    篇論文被接收,接受率為25.2%。sle=true#gid=0 據統計,今年共計1300篇論文被CVPR 2019 接收,相比去年被接收論文數量增加了32.8%。今年的接收率為25.2%。 而此次論文提交數量是5165篇,相比CVPR 2018增加了56%。