[計算機視覺論文速遞] ECCV 2018 專場9

2021-02-20 CVer

點擊上方「CVer」,選擇「置頂公眾號」

重磅乾貨,第一時間送達

前戲

Amusi 將日常整理的論文都會同步發布到 daily-paper-computer-vision 上。名字有點露骨,還請見諒。喜歡的童鞋,歡迎star、fork和pull。

直接點擊「閱讀全文」即可訪問daily-paper-computer-vision

link: https://github.com/amusi/daily-paper-computer-vision

ECCV 2018是計算機視覺領域中的頂級會議,目前已經公開了部分已錄用的paper。CVer 已經推送了八篇 ECCV 2018論文速遞推文:

[計算機視覺論文速遞] ECCV 2018 專場1

[計算機視覺論文速遞] ECCV 2018 專場2

[計算機視覺論文速遞] ECCV 2018 專場3

[計算機視覺論文速遞] ECCV 2018 專場4

[計算機視覺論文速遞] ECCV 2018 專場5

[計算機視覺論文速遞] ECCV 2018 專場6

[計算機視覺論文速遞] ECCV 2018 專場7

[計算機視覺論文速遞] ECCV 2018 專場8

Semantic Segmentation

《Concept Mask: Large-Scale Segmentation from Semantic Concepts》


ECCV 2018

Overall architecture of the proposed framework 

Three stages of the training framework

Abstract:Existing works on semantic segmentation typically consider a small number of labels, ranging from tens to a few hundreds. With a large number of labels, training and evaluation of such task become extremely challenging due to correlation between labels and lack of datasets with complete annotations. We formulate semantic segmentation as a problem of image segmentation given a semantic concept, and propose a novel system which can potentially handle an unlimited number of concepts, including objects, parts, stuff, and attributes. We achieve this using a weakly and semi-supervised framework leveraging multiple datasets with different levels of supervision. We first train a deep neural network on a 6M stock image dataset with only image-level labels to learn visual-semantic embedding on 18K concepts. Then, we refine and extend the embedding network to predict an attention map, using a curated dataset with bounding box annotations on 750 concepts. Finally, we train an attention-driven class agnostic segmentation network using an 80-category fully annotated dataset. We perform extensive experiments to validate that the proposed system performs competitively to the state of the art on fully supervised concepts, and is capable of producing accurate segmentations for weakly learned and unseen concepts.

CVer

Welcome to click AD

摘要:關於語義分割的現有工作通常考慮少量標籤,範圍從幾十到幾百。由於標籤之間的相關性以及缺少具有完整注釋的數據集,因此對於大量標籤,對此類任務的訓練和評估變得極具挑戰性。我們將語義分割表示為給定語義概念的圖像分割問題,並提出一種新穎的系統,它可以處理無限數量的概念,包括對象,部件,東西和屬性。我們使用弱監督和半監督框架來實現這一目標,該框架利用具有不同監督級別的多個數據集。我們首先在6M圖像數據集上訓練深度神經網絡,僅使用圖像級標籤來學習18K概念的視覺語義嵌入。然後,我們使用帶有750個概念的邊界框注釋的curated 數據集來優化和擴展嵌入網絡以預測注意力圖。最後,我們使用80類完全注釋的數據集訓練注意力驅動的類不可知分割網絡。我們進行了大量實驗,以驗證所提出的系統在完全監督的概念上與現有技術相比具有競爭力,並且能夠為弱學習和看不見的概念產生準確的分割。

arXiv:https://arxiv.org/abs/1808.06032

Monocular Depth Estimation

《Learning Monocular Depth by Distilling Cross-domain Stereo Networks》


ECCV 2018

Train monocular depth network by distilling stereo network

Visualization of depth maps of different methods on KITTI test set

Abstract:Monocular depth estimation aims at estimating a pixelwise depth map for a single image, which has wide applications in scene understanding and autonomous driving. Existing supervised and unsupervised methods face great challenges. Supervised methods require large amounts of depth measurement data, which are generally difficult to obtain, while unsupervised methods are usually limited in estimation accuracy. Synthetic data generated by graphics engines provide a possible solution for collecting large amounts of depth data. However, the large domain gaps between synthetic and realistic data make directly training with them challenging. In this paper, we propose to use the stereo matching network as a proxy to learn depth from synthetic data and use predicted stereo disparity maps for supervising the monocular depth estimation network. Cross-domain synthetic data could be fully utilized in this novel framework. Different strategies are proposed to ensure learned depth perception capability well transferred across different domains. Our extensive experiments show state-of-the-art results of monocular depth estimation on KITTI dataset.

摘要:單目深度估計旨在估計單個圖像的像素深度圖,其在場景理解和自動駕駛中具有廣泛的應用。現有的監督和無監督方法面臨巨大挑戰。監督方法需要大量深度測量數據,這些數據通常難以獲得,而無監督方法通常在估計精度方面受到限制。合成數據為收集大量深度數據提供了可能的解決方案。然而,合成數據和實際數據之間存在較大的域(domain)差距,這使得直接訓練具有一定挑戰性。在本文中,我們建議使用立體匹配網絡作為proxy 來從合成數據中學習深度,並使用預測的立體視差圖來監督單目深度估計網絡。跨域合成數據可以在這個新穎的框架中得到充分利用。提出了不同的策略來確保學習深度感知能力在不同域之間良好地傳遞。我們的廣泛實驗顯示了KITTI數據集上單目深度估計的最新結果。

arXiv:https://arxiv.org/abs/1808.06586

希望上述兩篇ECCV 2018 最新的paper可以給你帶來一點靈感~


歡迎給CVer點讚和轉發


▲長按關注我們

相關焦點

  • [計算機視覺論文速遞] 2018-07-02 圖像分割專場
    點擊上方「CVer」,選擇「置頂公眾號」重磅乾貨,第一時間送達這篇文章有2篇論文速遞
  • [計算機視覺論文速遞] 2018-03-20
    通知:這篇推文有13篇論文速遞信息,涉及圖像分割、SLAM、顯著性、深度估計、車輛計數等方向往期回顧
  • [計算機視覺論文速遞] 2018-03-31
    通知:這篇文章有10篇論文速遞信息,涉及Re-ID、深度估計、超解析度、顯著性檢測、GAN、VOA和卷積神經網絡綜述等方向往期回顧
  • 計算機視覺論文速遞
    通知:這篇推文有18篇論文速遞信息,涉及目標檢測、圖像分割和GAN等方向。Augmentation for increased CNN Performance in Liver Lesion Classification》   Preprint submitted to Neurocomputing   Abstract:深度學習方法,特別是卷積神經網絡(CNN),已經導致了廣泛的計算機視覺任務的巨大突破
  • [計算機視覺論文速遞] 2018-03-03
    通知:這篇推文很長,有32篇論文速遞信息
  • ECCV 2020 「視頻目標分割」論文匯總
    點擊上方「計算機視覺life」,選擇「星標」快速獲得最新乾貨
  • ...生以第一作者身份在計算機視覺國際頂級會議ECCV2020發表論文
    近日,計算機視覺國際頂級會議ECCV2020(European Conference on Computer Vision)接收結果公布。理學院數學系應用數學和人工智慧研究團隊在ECCV2020上發表題為SingleImage Super-Resolution via a Holistic Attention Network論文。
  • [計算機視覺論文速遞] 2018-03-05
    通知:這篇推文有16篇論文速遞信息
  • 何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)
    >天新智元將於9月20日在北京國家會議中心舉辦AI WORLD 2018世界人工智慧峰會,計算機視覺領域先驅、約翰霍普金斯大學認知與計算機科學系教授Alan Yullie將親臨會場,發表主題演講《深度網絡及更多:大數據不是萬能的》。
  • 計算機視覺領域的王者與榮耀丨CCF-GAIR 2018
    當計算機視覺研究與落地大潮湧動之際,第三屆CCF-GAIR全球人工智慧與機器人峰會「計算機視覺專場」,眾多科技巨頭首席技術官、獨角獸首席科學家、國際學術頂會主席、世界名校AI實驗室主任將會公開分享最前沿的計算機視覺技術研究與商用成果。
  • ECCV 2020 論文大盤點-語義分割篇
    | https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123670664.pdf備註 | ECCV 2020| https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123710341.pdf備註 | ECCV 2020
  • ECCV 2020 語義分割論文大盤點(38篇論文)
    Intra-class Feature Variation Distillation for Semantic Segmentation論文:https://www.ecva.net/papers/eccv_2020/papers_ECCV/html/230_ECCV_2020_paper.php代碼:https://github.com
  • ECCV 2018 德國慕尼黑召開,來份 tutorial 預熱 | ECCV 2018
    ,計算機視覺歐洲大會(European Conference on Computer Vision,ECCV)於 9 月 8 -14 日在德國慕尼黑召開,今天已進入會議第二日。Tutorial 3 將微軟 HoloLens 全息眼鏡用作計算機視覺研究工具微軟 HoloLens 是世界上第一臺獨立的全息電腦,它同時也是一種強大的計算機視覺研究設備。應用程式代碼可以訪問音頻、視頻流和表面網格,所有這些數據都存儲在 HoloLens 高度精確的頭部跟蹤技術維護的世界坐標空間中。
  • 【收藏】2018年不容錯過的20大人工智慧/機器學習/計算機視覺等頂會時間表
    本文介紹了2018年值得關注的20個頂會,包括人工智慧、機器學習、計算機視覺、自然語言處理、體系結構等領域。目錄人工智慧/機器學習計算機視覺/模式識別自然語言處理/計算語言學體系結構數據挖掘/信息檢索計算機圖形學1.
  • ECCV 2020 論文大盤點-圖像與視頻分割篇
    | https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123740137.pdf備註 | ECCV 2020| https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123750154.pdf備註 | ECCV 2020
  • 理學院數學系研究生以第一作者身份在計算機視覺國際頂級會議ECCV...
    近日,計算機視覺國際頂級會議ECCV2020(European Conference on Computer Vision)接收結果公布。理學院數學系應用數學和人工智慧研究團隊在ECCV2020上發表題為SingleImage Super-Resolution via a Holistic Attention Network論文。
  • 2018最具突破性計算機視覺論文Top 10
    在2018年,我們看到計算機視覺領域出現了許多新穎的架構設計,這些設計改進性能基準,也擴大了機器學習的模型可以分析的媒介範圍。我們在不久前總結了2018年的頂級機器學習論文。由於計算機視覺和圖像生成對於AI應用的重要性和普及性,本文中,我們總結了2018年最重要的10篇視覺相關的研究。
  • ECCV 2020獎項公布!李飛飛高徒與其學生共獲最佳論文獎
    ECCV 的全稱是 European Conference on Computer Vision(歐洲計算機視覺國際會議) ,兩年一次,與 ICCV 和 CVPR 並稱計算機視覺三大會議。ECCV 2020 收到了創紀錄的 5150 份提交材料,是 2018 年上一次會議的兩倍。
  • 四川2位"超牛"學霸:研究論文登上計算機視覺領域頂級會議ECCV!
    近日,計算機視覺頂級會議ECCV 2020公布收錄結果。電子科技大學信通學院智能視覺信息處理團隊碩士一年級學生陽隆榮的論文《Learning with Noisy Class Label for Instance Segmentation》成功入選,陽隆榮為論文第一作者,李宏亮教授為通訊作者,電子科技大學為唯一作者單位。
  • 從學術研究到應用落地,這 6 位計算機視覺大咖在 CV 專場上都講了...
    雷鋒網(公眾號:雷鋒網)按:2018 全球人工智慧與機器人峰會(CCF-GAIR)在深圳召開,峰會由中國計算機學會(CCF)主辦,雷鋒網、香港中文大學(深圳)承辦,得到了寶安區政府的大力指導雷鋒網 CCF-GAIR 2018 延續前兩屆的「頂尖」陣容,提供 1 個主會場和 11 個專場(仿生機器人專場,機器人行業應用專場,計算機視覺專場,智能安全專場,金融科技專場,智能駕駛專場,NLP 專場,AI+ 專場,AI 晶片專場,IoT 專場,投資人專場)的豐富平臺,意欲給三界參會者從產學研多個維度,呈現出更富前瞻性與落地性相結合的會議內容與現場體驗。