作者| 陳大鑫
ACCV (Asian Conference on Cpmputer Vision)是僅次於CVPR、ICCV、ECCV 的計算機視覺領域會議(與BMVC類似),影響力逐年上升,今年的ACCV 2020 原計劃在日本京都於11月30-12月4日召開,現因疫情原因改為線上。
ACCV 2020 共錄用論文 255 篇,官方提供所有論文開放下載。
官網連結:http://accv2020.kyoto/
截止目前,大會已經公布了最佳論文獎、最佳學生論文獎、最佳應用論文獎等三項大獎,其中帝國理工和華為諾亞方舟合作獲得了最佳學生論文獎。
以下AI科技評論就帶大家讓我們一起來看看這三項大獎吧 !
1
最佳論文獎
獲獎論文:《A sparse gaussian apppproach to region-based 6DoF Object Tracking》
論文作者:Manuel Stoiber、Martin Pfanne、Klaus H. Strobl、Rudolph Triebel、Alin Albu-Schaffer 。
研究單位:德國航空航天中心、慕尼黑工業大學。
論文連結:
https://openaccess.thecvf.com/content/ACCV2020/papers/Stoiber_A_Sparse_Gaussian_Approach_to_Region-Based_6DoF_Object_Tracking_ACCV_2020_paper.pdf
開原始碼:https://github.com/DLR-RM/RBGT
論文介紹:
本文提出了一種新穎、高效的稀疏方法,用於基於區域的6DoF目標跟蹤,該方法僅需要單目RGB相機和3D物體模型。
本文工作的主要貢獻是一個概率模型,該模型沿對應線稀疏地考慮了圖像信息。
對於實現,本文提供了高效的離散比例空間公式。此外,本文得出了一個新穎的數學證明,表明提出的似然函數遵循高斯分布。
基於此信息,本文為正則化牛頓優化中使用的對數似然導數開發了魯棒近似。
在多個實驗中,作者表明,在跟蹤成功方面,本文的方法優於基於區域的SOTA模型,且速度還要快上一個數量級。
我們的跟蹤器的原始碼是公開可用的。
最佳論文榮譽提名
獲獎論文:《Pre-training without Natural Images》
作者:Hirokatsu Kataoka, Kazushige Okayasu, Asato Matsumoto,Eisuke Yamagata,Ryosuke Yamada, Nakamasa Inoue,Akio Nakamura,and Yutaka Satoh
研究單位:日本國家先進工業研究院、東京電機大學、筑波大學、東京理工學院
論文連結:https://openaccess.thecvf.com/content/ACCV2020/html/Kataoka_Pre-training_without_Natural_Images_ACCV_2020_paper.html
開源地址:https://github.com/hirokatsukataoka16/FractalDB
2
最佳學生論文獎
獲獎論文:《Project to Adapt: Domain Adaptation for Depth Completion from Noisy and Sparse Sensor Data》
論文作者:Adrian Lopez-Rodriguez、Benjamin Busam、 Krystian Mikolajczyk
研究單位:帝國理工學院、華為諾亞方舟實驗室、慕尼黑工業大學
論文連結:https://openaccess.thecvf.com/content/ACCV2020/papers/Lopez-Rodriguez_Project_to_Adapt_Domain_Adaptation_for_Depth_Completion_from_Noisy_ACCV_2020_paper.pdf
論文介紹:
深度完成(Depth completion)的目的是根據稀疏的深度輸入預測密集的深度圖。獲取用於深度完成設置的密集ground truth 注釋可能很困難,於此同時,實際LiDAR測量值與合成數據之間的顯著領域差距也阻止了在虛擬設置中成功訓練模型。
我們提出了一種針對稀疏到稠密深度完成的領域適應方法,該方法是根據合成數據進行訓練的,而無需在實際域中進行注釋或使用其他傳感器。
如上圖所示,我們的方法模擬了RGB + LiDAR設置中的真實傳感器噪聲,並包括三個模塊:通過投影模擬合成域中的真實LiDAR輸入、過濾真實噪聲的LiDAR以進行監控以及使用CycleGAN調整合成RGB圖像方法。我們根據KITTI深度完成基準中的SOTA技術對這些模塊進行了廣泛評估,評估結果顯示出我們方法得到了明顯的改進。
最佳學生論文榮譽提名獎
論文連結:https://openaccess.thecvf.com/content/ACCV2020/html/Navasardyan_Image_Inpainting_with_Onion_Convolutions_ACCV_2020_paper.html
3
最佳應用論文獎
獲獎論文:《Watch,read and lookup:learning to spot signs from multiple supervisors》
論文連結:https://openaccess.thecvf.com/content/ACCV2020/html/Momeni_Watch_read_and_lookup_learning_to_spot_signs_from_multiple_ACCV_2020_paper.html
論文介紹:
本文工作的重點是標識識別:給出一個孤立標識的視頻,我們的任務是確定是否在連續的,共同表達的手語視頻中對它進行了標記。
為了實現此標識發現任務,我們通過以下幾種類型的可用監督來訓練模型:
(1)觀看現有的帶有稀疏標籤的鏡頭;
(2)閱讀提供附加弱監督的相關字幕(標記內容的現有翻譯);
(3)在視覺手語詞典中查找單詞(沒有可用的共同標註的示例),以實現新穎的手勢識別。
使用噪聲對比估計和多實例學習的原理將這三個任務集成到一個統一的學習框架中:
我們在 low-shot sign spotting基準上驗證了我們方法的有效性。此外,我們提供了隔離符號的機器可讀的英國手語(BSL)詞典數據集BslDict,以促進對該任務的研究。
數據集,模型和代碼可在我們的項目頁面上獲得:https://www.robots.ox.ac.uk/~vgg/research/bsldict/
最佳應用論文榮譽提名獎
論文連結:
https://openaccess.thecvf.com/content/ACCV2020/html/Li_A_cost-effective_method_for_improving_and_re-purposing_large_pre-trained_GANs_ACCV_2020_paper.html
論文作者:Qi Li , Long Mai , Michael A. Alcorn, and Anh Nguyen
研究單位:奧本大學、Adobe
彩蛋
ACCV 2020線上會議主界面:
線上會議虛擬的爬山:
線上會議房間: