CVPR 2021 論文大盤點-圖像修復篇

2021-12-19 OpenCV中文網
本篇文章繼續總結CVPR 2021 中底層圖像處理相關論文,包含圖像恢復、圖像修補、圖像質量評價、去遮擋等。共計 20 篇。https://openaccess.thecvf.com/CVPR2021?day=all如果想要下載所有CVPR 2021論文,請點擊這裡:Multi-Stage Progressive Image Restoration作者 | Syed Waqas Zamir, Aditya Arora, Salman Khan, Munawar Hayat, Fahad Shahbaz Khan, Ming-Hsuan Yang, Ling Shao單位 | 起源人工智慧研究院;MBZUAI;蒙納士大學;加利福尼亞大學美熹德分校;延世大學;谷歌論文 | https://arxiv.org/abs/2102.02808代碼 | https://github.com/swz30/MPRNetControllable Image Restoration for Under-Display Camera in Smartphones為了解決 UDC 圖像中空間變化的模糊和噪聲問題,提出一種新型的可控圖像修復算法,利用像素化的 UDC 特定核表示和噪聲估計器。核表示來自於一個精心設計的光學模型,該模型反映了正常和斜向光入射的影響。同時,引入噪聲自適應學習來控制噪聲水平,可以根據用戶的喜好利用它來提供最佳結果。實驗表明,與傳統的圖像修復算法相比,所提出的方法在真實世界的數據集和基於顯示器的對齊數據集上都取得了卓越的定量性能和更高的感知質量。作者 | Kinam Kwon、Eunhee Kang、Sangwon Lee 、Su-Jin Lee 、Hyong-Euk Lee 、ByungIn Yoo 、Jae-Joon Hanhttps://openaccess.thecvf.com/content/CVPR2021/papers/Kwon_Controllable_Image_Restoration_for_Under-Display_Camera_in_Smartphones_CVPR_2021_paper.pdfZero-shot Single Image Restoration through Controlled Perturbation ofKoschmieder’s Model文中提出一個零樣本單一真實世界圖像修復模型,它利用了通過Koschmieder 模型從理論上推導出的降質屬性,是第一個可用於所有應用領域的圖像修復的方法。該用於去噪和水下圖像修復的零樣本學習方法還是第一種不需要基於先驗的損失函數或正則的方法。在現實世界的圖像去模糊化和水下圖像修復中的表現優於或不亞於最先進的方法。另外還進一步證明改方法在低光照圖像增強中的應用,其中可以採用 Koschmieder 的模型。作者 | Aupendu Kar , Sobhan Kanti Dhara , Debashis Sen, Prabir Kumar Biswashttps://openaccess.thecvf.com/content/CVPR2021/papers/Kar_Zero-Shot_Single_Image_Restoration_Through_Controlled_Perturbation_of_Koschmieders_Model_CVPR_2021_paper.pdf主頁 | https://aupendu.github.io/zero-restoreHigh-Quality Stereo Image Restoration from Double Refraction作者 | Hakyeong Kim 、Andreas Meuleman 、Daniel S. Jeon 、Min H. Kimhttps://openaccess.thecvf.com/content/CVPR2021/papers/Kim_High-Quality_Stereo_Image_Restoration_From_Double_Refraction_CVPR_2021_paper.pdfImage Restoration for Under-Display Camera在本次工作中,專注於新定義的顯示器下攝像頭(UDC),作為一個新的現實世界的單一圖像修復問題。首先,採用4k透明OLED(T-OLED)和手機Pentile OLED(P-OLED),並分析它們的光學系統以了解其降質情況。第二,設計一個監視器-相機成像系統(MCIS),以便更容易地獲取真實對數據,並設計一個基於模型的數據合成管道,僅從顯示模式和相機測量中生成點擴散函數(PSF)和UDC數據。最後,使用基於去卷積的管道和基於學習的方法解決複雜的降質問題。改模型展示了一個實時的高質量修復。所提出的方法和結果揭示了UDC的潛在研究價值和方向。作者 | Yuqian Zhou、David Ren、Neil Emerton、Sehoon Lim、 Timothy Large單位 | 伊利諾伊大學厄巴納-香檳分校;伯克利;微軟https://openaccess.thecvf.com/content/CVPR2021/papers/Zhou_Image_Restoration_for_Under-Display_Camera_CVPR_2021_paper.pdfExploiting Aliasing for Manga Restoration本文中,提出一種深度學習方法,用於學習比例因子的漫畫修復。首先為低解析度的漫畫圖像預測一個合適的比例因子。利用預測的比例因子,進一步恢復高解析度的圖像,該圖像具有黑白和同質的色調。在合成數據上取得了很高的準確度,並能在真實世界的案例中產生不錯的結果。作者 | Minshan Xie, Menghan Xia, Tien-Tsin Wong論文 | https://arxiv.org/abs/2105.06830Generating Diverse Structure for Image Inpainting With Hierarchical VQ-VAE提出一種基於分層 VQ-VAE 的 multiple-solution 圖像修複方法。該方法與以前的方法相比有兩個區別:首先,該模型在離散的隱變量上學習自回歸分布。第二,該模型將結構和紋理特徵分開。提出為結構特徵的分布學習一個條件自回歸網絡。該網絡能夠產生具有高度多樣性的合理結構。對於紋理生成,提出一個結構注意力模塊,用來捕捉結構特徵的遠距離相關性。還提出兩個新的特徵損失,以改善結構的一致性和紋理的真實性。在三個基準數據集(包括CelebA-HQ、Places2和ImageNet)上進行的廣泛實驗表明,所提出的方法在質量和多樣性方面都有優勢。
作者 | Jialun Peng, Dong Liu, Songcen Xu, Houqiang Li論文 | https://arxiv.org/abs/2103.10022代碼 | https://github.com/USTC-JialunPeng/Diverse-Structure-InpaintingTransFill: Reference-guided Image Inpainting by Merging Multiple Color and Spatial Transformations文中提出 TransFill,一種多同域轉換的融合方法,通過參考與目標圖像共享場景內容的另一個源圖像來填補這個洞。首先通過估計由不同深度級引導的多個同構圖,將源圖像與目標圖像對齊。然後,學習調整顏色,並對每個同傳扭曲的源圖像應用像素級的扭曲,使其與目標圖像更加一致。最後,學習一個像素級的融合模塊來選擇性地合併不同的方案。所提出方法在各種寬基線和顏色差異的圖像對上實現了最先進的性能,並可泛化到用戶提供的圖像對。作者 | Yuqian Zhou, Connelly Barnes, Eli Shechtman, Sohrab Amirghodsi單位 | 伊利諾伊大學厄巴納-香檳分校;Adobe Research論文 | https://arxiv.org/abs/2103.15982代碼 | https://github.com/yzhouas/TransFill-Reference-Inpainting主頁 | https://yzhouas.github.io/projects/TransFill/index.htmlImage Inpainting with External-internal Learning and Monochromic Bottleneck作者稱這是首個將 external-internal 學習方法用於深度圖像修復的工作,通過在大型數據集上進行訓練,從外部學習語義知識,同時充分利用單幅測試圖像的內部統計數據。設計一個漸進式的內部色彩復原網絡,可實現出色的色彩化性能。將所提出的方法推廣到多個深度修復模型,並在多個數據集上觀察到視覺質量和模型泛化能力的明顯改善。作者 | Tengfei Wang, Hao Ouyang, Qifeng Chen論文 | https://arxiv.org/abs/2104.09068代碼 | https://github.com/Tengfei-Wang/external-internal-inpaintingPD-GAN: Probabilistic Diverse GAN for Image Inpainting基於 vanilla GAN,提出 PD-GAN 通過所提出的 SPDNorm 對隨機噪聲向量的深度特徵進行調製,以納入上下文約束。以及提出一種感知上的多樣性損失,以增強網絡多樣性。在基準數據集上的實驗表明,PD-GAN 能夠有效地生成多樣的、視覺上真實的圖像修補內容。
作者 | Hongyu Liu, Ziyu Wan, Wei Huang, Yibing Song, Xintong Han, Jing Liao論文 | https://arxiv.org/abs/2105.02201代碼 | https://github.com/KumapowerLIU/PD-GANImage Inpainting Guided by Coherence Priors of Semantics and Textures本文提出一個新的語義分割和圖像修復的聯合優化框架,利用語義和紋理之間存在的一致性先驗來解決複雜的 holes inpainting 問題。為了解決不相關的紋理填充問題,提出一個語義上的注意力傳播模塊,以優化來自同一語義區域的預測紋理,以及兩個一致性損失來約束同一圖像中語義和紋理的一致性。實驗結果表明,所提出方法可以有效地生成有細緻的語義結構和紋理細節。作者 | Liang Liao, Jing Xiao, Zheng Wang, Chia-Wen Lin, Shin'ichi Satoh單位 | National Institute of Informatics;武漢大學;臺灣清華大學論文 | https://arxiv.org/abs/2012.08054Human De-occlusion: Invisible Perception and Recovery for Humans該文針對圖像中人物部分被遮擋的問題,作者提出一個兩階段框架來估計人像不可見的部分,並恢復其中的內容。作者 | Qiang Zhou、Shiyin Wang、Yitong Wang、Zilong Huang、 Xinggang Wanghttps://openaccess.thecvf.com/content/CVPR2021/papers/Zhou_Human_De-Occlusion_Invisible_Perception_and_Recovery_for_Humans_CVPR_2021_paper.pdf代碼 | https://sydney0zq.github.io/ahp/Dual Pixel Exploration: Simultaneous Depth Estimation and Image Restoration文中提出一個端到端 DDDNet(基於Dual Pixel 的深度和去模糊網絡),以聯合估計inverse 深度圖並從模糊的 DP 圖像對中恢復清晰的圖像。作者 | Liyuan Pan, Shah Chowdhury, Richard Hartley, Miaomiao Liu, Hongguang Zhang, Hongdong Li論文 | https://arxiv.org/abs/2012.00301Troubleshooting Blind Image Quality Models in the Wild作者 | Zhihua Wang, Haotao Wang, Tianlong Chen, Zhangyang Wang, Kede Ma論文 | https://arxiv.org/abs/2105.06747代碼 | https://github.com/wangzhihua520/troubleshooting_BIQARetinex-inspired Unrolling with Cooperative Prior Architecture Search for Low-light Image Enhancement本文中,提出一種新的輕量級方法,Retinex-inspired Unrolling with Architecture Search (RUAS),用於在現實世界的場景中為低光圖像增強。通過實驗驗證了 RUAS 框架相對於最近提出的最先進方法的優越性。作者 | Risheng Liu, Long Ma, Jiaao Zhang, Xin Fan, Zhongxuan Luo論文 | https://arxiv.org/abs/2012.05609代碼 | https://github.com/dut-media-lab/RUASDebiased Subjective Assessment of Real-World Image Enhancement作者 | Peibei Cao、Zhangyang Wang、Kede Mahttps://openaccess.thecvf.com/content/CVPR2021/papers/Cao_Debiased_Subjective_Assessment_of_Real-World_Image_Enhancement_CVPR_2021_paper.pdfLearning Temporal Consistency for Low Light Video Enhancementfrom Single Images低光照視頻增強。文中提出一種新的方法,在只有靜態圖像的低光視頻增強中強制執行時間穩定性。它的關鍵思想是,從單一圖像中學習和推理運動場(光流),併合成短距離視頻序列。該方法是通用的,可以直接擴展到大規模的數據集。通過實驗和用戶研究表明,所提出的方法具有最先進的性能。
作者 | Fan Zhang、Yu Li、Shaodi You、Ying Fu單位 | 北京理工大學;騰訊PCG;阿姆斯特丹大學https://openaccess.thecvf.com/content/CVPR2021/papers/Zhang_Learning_Temporal_Consistency_for_Low_Light_Video_Enhancement_From_Single_CVPR_2021_paper.pdf代碼 | https://github.com/zkawfanx/StableLLVERestoring Extremely Dark Images in Real Time低光照圖像增強。文章提出一個輕量級的新的深度學習架構,用於極端低照度下的單幅圖像修復,不僅推理速度快,輕量級,而且修復效果在感知上與最先進的計算密集型模型相當。作者 | Mohit Lamba、Kaushik Mitra

論文 | 

https://openaccess.thecvf.com/content/CVPR2021/papers/Lamba_Restoring_Extremely_Dark_Images_in_Real_Time_CVPR_2021_paper.pdf

代碼 | https://github.com/MohitLamba94/Restoring-Extremely-Dark-Images-In-Real-TimeNighttime Visibility Enhancement by Increasing the Dynamic Range and Suppression of Light Effects夜間能見度圖像增強。構思是增加強度的動態範圍,從而可以提高低光區域的強度,同時抑制光效應(微光、眩光、泛光)。作者稱是首個解決上述問題的方法,該方法以半監督學習為基礎,使用配對數據(有 ground-truths)和非配對數據(無 ground-truths)分別學習動態範圍的改善和光效應的抑制。作者 | Aashish Sharma、Robby T. Tan單位 | 新加坡國立大學;Yale-NUS College

論文 | 

https://openaccess.thecvf.com/content/CVPR2021/papers/Sharma_Nighttime_Visibility_Enhancement_by_Increasing_the_Dynamic_Range_and_Suppression_CVPR_2021_paper.pdf

DeFlow: Learning Complex Image Degradations from Unpaired Data with Conditional Flows這篇文章從非成對數據中學習複雜的圖像降質。DeFlow,一種將條件流網絡應用於非配對學習設置的新方法。我們應用這種方法為現實世界超解析度的下遊任務生成合成訓練數據。儘管與目前主要依靠對抗訓練的 RWSR 方法有很大的不同,但 DeFlow 的降質提供了顯著的性能改進,並達到了最先進的性能。作者 | Valentin Wolf, Andreas Lugmayr, Martin Danelljan, Luc Van Gool, Radu Timofte論文 | https://arxiv.org/abs/2101.05796代碼 | https://github.com/volflow/DeFlow

圖像增強、去霧、去雨、圖像修補、圖像恢復等技術,

若已為CV君其他帳號好友請直接私信

在看,讓更多人看到  

相關焦點

  • 華人佔大半壁江山!CVPR 2021 目標檢測論文大盤點(65篇論文)
    CVPR 2021上各個方向的工作,本篇是熱度依然很高的2D目標檢測論文大盤點,之前已分享:關於更多CVPR 2021的論文和開原始碼,可見下面連結:https://github.com/amusi/CVPR2021-Papers-with-CodeCVPR 2021 2D目標檢測論文
  • CVPR 2020 論文大盤點-圖像增強與圖像恢復篇
    點擊上方「計算機視覺life」,選擇「星標」快速獲得最新乾貨本文繼上一篇 CVPR 2020 論文大盤點
  • CVPR 2021 結果出爐!最新 64 篇 CVPR'21 論文匯總(更新中)
    計算機視覺社區一直非常關注CVPR,在每年都會進行CVPR相關的論文資源整理,包括論文解讀、代碼、技術直播、分方向盤點、最佳論文匯總等
  • WACV 2021 論文大盤點-圖像質量篇
    本篇是對圖像質量相關論文的總結。包含去噪、去模糊、去霧、去馬賽克、圖像 inpainting 和 outpainting、圖像恢復、圖像著色。
  • WACV 2021 論文大盤點-人體動作檢測與識別篇
    篇。下載包含這些論文的 WACV 2021 所有論文:『WACV 2021 開幕,更偏重技術應用,附論文下載』We Don't Need Thousand Proposals: Single Shot Actor-Action Detection in VideosSSA2D 是一種簡單且有效的用於視頻單樣本 Actor-Action 檢測方法。
  • CVPR 引用量最高的10篇論文!何愷明ResNet登頂,YOLO佔據兩席!
    本文就來盤點CVPR 2015-2019年引用量最高的10篇論文。根據此數據,一方面能看出這段深度學習黃金時期的研究熱點,另一方面查漏補缺,看看這些必看的Top級論文是不是都掌握了。同年的圖像分割論文,應該只有U-Net可以與之媲美。
  • CVPR 2020 論文大盤點-超解析度篇
    本文盤點CVPR 2020 所有超解析度(Super-Resolution,SR)技術相關論文,總計21篇,超解析度是CV領域傳統方向
  • CVPR 2020 論文大盤點-圖像與視頻檢索篇
    Video Retrieval)相關論文,總計 16 篇。這部分論文方向比較分散,包括:半監督圖像檢索  1篇,組合查詢圖像檢索 2篇對抗圖像檢索 1篇服飾檢索 2篇基於草圖的圖像檢索 2篇跨模態圖像文本檢索 2篇跨模態視頻文本檢索 1篇域適應圖像檢索 1篇哈希算法 3篇
  • CVPR2019無人駕駛相關論文
    同時提供每月大咖直播分享、真實項目需求對接、乾貨資訊匯總,行業技術交流。點擊文末「閱讀原文」立刻申請入群~CVPR2019 accepted list ID已經放出,極市已將目前收集到的公開論文總結到github上(目前已收集210篇),後續會不斷更新,歡迎關注,也歡迎大家提交自己的論文:https://github.com/extreme-assistant/cvpr2019
  • 28 篇論文、6 大主題帶你一覽 CVPR 2020 研究趨勢
    我們先來看下 CVPR 2020 官方的相關統計數據:CVPR 往年的增長趨勢仍然繼續:作者人數增加了20%,提交論文的數量增加了29%,同時為了適應這種擴張,審稿人和領域主席都有增加今年會議的註冊人數共有6424人,相比2019年增加了一千多人。在被接收的1467篇論文中,有335篇 Oral 論文。
  • WACV 2021 論文大盤點-GAN篇
    本篇總結關於 GAN 的論文,包括人臉編輯、單圖像中合成、大規模視頻合成、自動缺陷檢測、對非均質光照圖像處理等。
  • CVPR 2020 論文大盤點-行人檢測與重識別篇
    本文盤點CVPR 2020 所有行人檢測(Pedestrian Detection)與人員重識別(Person Re-Identification,ReID)相關論文,在視頻監控領域該方向技術應用廣泛,但不僅僅局限於這兩種技術,因為擁擠人群計數(Crowd Counting)往往與行人檢測相關,而步態識別(Gait Recognition)可看作一種特殊的人員重識別,故將以上方向的論文均歸為行人檢測與重識別
  • CVPR 2017國內外亮點論文匯集:史上最盛大會議,華人佔據半壁江山
    作為領域內具有權威性的會議,今年的 CVPR 共收到有效提交論文 2680 篇,其中 2620 篇論文經過完整評議,最終總計 783 篇被正式錄取(佔總提交數的 29%)。被接收的論文中,71 篇將進行長口頭演講,144 篇進行短亮點演講。華人不僅佔據了論文作者的半壁江山,國內眾多人工智慧公司也已摩拳擦掌要在 CVPR 大會上大顯身手了。
  • 時隔一年,盤點CVPR 2019影響力最大的20篇論文
    CVPR 2019 已經過去一年了,本文盤點其中影響力最大的 20 篇論文,這裡的影響力以谷歌學術上顯示的論文的引用量排序,截止時間為
  • CVPR2019| 南開大學、Facebook等13篇CVPR論文及源碼推薦(顯著性檢測/實例分割/人臉識別/視頻動作識別等)
    同時提供每月大咖直播分享、真實項目需求對接、乾貨資訊匯總,行業技術交流。點擊文末「閱讀原文」立刻申請入群~前段時間,計算機視覺頂會CVPR 2019 公布了接收結果,極市也對此做了相關報導:1300篇!CVPR2019接收結果公布,你中了嗎?。
  • AAAI 2021 目標檢測論文大盤點(YOLObile/R3Det/StarNet等)
    開獎放榜結束有段時間了(近期將開始線上會議),其中的論文大多是目前的SOTA,所以非常值得大家花時間閱讀學習!AAAI 2021 有效投稿數為9034,最終收錄1692篇論文,錄取率是21%。CVer 將正式系列整理 AAAI 2021的大盤點工作。雖然AAAI 論文收錄數量很多,但其是AI大類的頂會,涵蓋了CV、NLP和ML等方向,所以真正屬於CV的論文並沒有特別多。
  • CVPR2019| 05-14更新8篇論文及代碼合集(含手勢姿態估計/人臉/數據集等)
    同時提供每月大咖直播分享、真實項目需求對接、乾貨資訊匯總,行業技術交流。點擊文末「閱讀原文」立刻申請入群~前段時間,計算機視覺頂會CVPR 2019 公布了接收結果,極市也對此做了相關報導:1300篇!CVPR2019接收結果公布,你中了嗎?。
  • 1470篇!CVPR2020結果出爐(附13篇論文連結/開原始碼/解讀)
    點擊上方「CVer」,選擇加"星標"或「置頂」重磅乾貨,第一時間送達今天,計算機視覺三大頂會之一CVPR2020接收結果已經公布,一共有1470篇論文被接收計算機視覺頂會CVPR2020官方今日發布接收論文列表(編號):http://cvpr2020.thecvf.com/sites/default/files/2020-02/accepted_list.txt雖然我們目前還只能看到官方公布的接收論文ID,具體的接收論文還不清楚,但部分作者已經展示了自己被接收的工作,有些更是已經放出了開原始碼
  • 收藏|27篇CVPR2021 2D 目標檢測論文
    6月25日CVPR 2021 大會圓滿結束,最佳論文的評選結果也出來了,所有被大會接收的論文已經全部開放,大家可以獲取閱讀了。本次CVPR2021錄用率大致為23.6%,略高於去年的22.1%。學姐正尋思著把這些論文都歸歸類然後篩選出來一些有代表性的給大家看。就在找資料的時候發現了一個寶藏網站,裡面的大佬已經在做這個事情了。
  • CVPR2019| 05-20更新17篇點雲相關論文及代碼合集
    同時提供每月大咖直播分享、真實項目需求對接、乾貨資訊匯總,行業技術交流。點擊文末「閱讀原文」立刻申請入群~前段時間,計算機視覺頂會CVPR 2019 公布了接收結果,極市也對此做了相關報導:1300篇!CVPR2019接收結果公布,你中了嗎?。