超解析度 | 綜述!使用深度學習來實現圖像超解析度

2021-02-15 AI算法修煉營

精選作品,第一時間送達

今天給大家介紹一篇圖像超解析度鄰域的綜述,這篇綜述總結了圖像超解析度領域的幾方面:problem settings、數據集、performance metrics、SR方法、特定領域應用以結構組件形式,同時,總結超分方法的優點與限制。討論了存在的問題和挑戰,以及未來的趨勢和發展方向。

論文地址:https://arxiv.org/pdf/1902.06068.pdf

超解析度(Super Resolution,SR)是從給定的低解析度(LR)圖像中恢復高解析度(HR)圖像的過程,是計算機視覺的一個經典應用。SR是指通過軟體或硬體的方法,從觀測到的低解析度圖像重建出相應的高解析度圖像(說白了就是提高解析度),在監控設備、衛星圖像遙感、數字高清、顯微成像、視頻編碼通信、視頻復原和醫學影像等領域都有重要的應用價值。

近年來,目睹了使用深度學習技術的圖像超解析度的顯著進步。文中將現有的使用深度學習方法解決圖像超解析度問題的研究工作主要分成三個部分:

1.supervised SR(有監督學習的圖像超解析度)

2.unsupervised SR(無監督學習的圖像超解析度)

3.domain-specific SR (特定應用領域的圖像超解析度)

LR(低解析度圖像)圖像為以下處理過程的輸出:

其中,D代表一個退化映射函數,Iy代表相應的HR(高解析度)圖像,δ代表這個映射過程中的一些其他參數(例如:比例因子或者噪聲項)多數情況下,只提供LR圖像,需要恢復相應的Iy:

其中,F為模型,θ 為模型的參數表示。大多數工作將退化映射建模為單個降採樣操作

其中,↓s為比例因子為S的降採樣操作,最常用的降採樣操作是雙三次插值,也有其他方法將退化映射建模為幾個操作的組合:

其中,Iy⊗κ代表模糊核k與HR圖像之間的卷積操作。nς 為可加的帶標準差ς的高斯白噪聲,上式與上上式相比,更接近實際情況,對SR更加有利。

因此,SR的目標函數為:

其中,Φ(θ)是正則化項,SR最常見的損失函數為逐像素差的均方誤差,更強大的模型往往採用將多種損失函數相結合的方式

一些數據集提供HR-LR圖像對,有的只提供HR圖像,LR圖像通常是通過MATLAB中默認設置的imresize函數(雙三次插值with anti-aliasing)獲得。下表是一些SR常用數據集:

如何定量地評估模型的性能?許多圖像質量評估(IQA)技術(或度量)用於相同的目的。這些指標可以大致分為兩類——主觀指標和客觀指標。

峰值信噪比(PSNR)是一種常用的客觀指標,通常用來衡量有損變換的圖像質量。對於SR,通過圖片間的最大可能像素值L和均方誤差MSE定義,PSNR與ground truth圖像與生成圖像的均方誤差(MSE)的對數成反比。假設HR圖像I和重建圖像 ˆ I,兩者的像素都是N,MSE和PNSR(db)如下所示:

在上面的公式中,8bit表示一個像素點的取值,取值範圍為0~255,L是可能的最大像素值(對於8位RGB圖像,它是255),PSNR的典型值從20到40不等,越高越好。從式子可以看出,L一定,PNSR只與像素間的MSE有關,所以,PSNR只關心像素值之間的差異,它並不能很好地代表感知質量。PSNR在真實場景的SR衡量效果較差,但由於缺乏感知衡量標準,運用最為廣泛。

結構相似度(SSIM)是在亮度、對比度和結構三個相對獨立比較的基礎上,提出的用於測量圖像之間結構相似度的指標。抽象地說,SSIM公式可以表示為亮度、對比度和結構比較的加權乘積,分別計算。

式中,α,β和γ分別為亮度、對比度和結構比較函數的權重。常用的SSIM公式表示如下:

在上面的公式中μ(I)代表了一個特定圖像的均值,σ(I)表示了特定圖像的方差,σ(I,I』)表示了兩張圖像的協方差,C1, C2是設置的常量,避免計算的不穩定。SSIM從HVS的角度來評價重建質量,更符合視覺感知,被廣泛應用。

由於圖像統計特徵可能分布不均或失真,局部評估圖像質量比全局更可靠。均值SSIM (MSSIM)是一種局部評估質量的方法,它將圖像分割成多個窗口,並對每個窗口獲得的SSIM進行平均。

除了RGB,YCbCr顏色空間也被廣泛使用。Y, Cb, Cr 分別表示亮度、藍差、紅差色度分量。早期的模型更傾向於在Y通道上進行操作,最近的模型更多的處理RGB顏色通道。在不同的顏色空間或者通道上操作會使評估的性能造成很大的不同。

其他的IQA分數

平均意見評分(MOS)

基於任務的評價

信息保真度準則(IFC)

視覺信息保真度(VIF)

深度學習可以用給定的低解析度圖像來估計高解析度圖像。通過使用高解析度圖像作為目標(或 ground-truth)和LR圖像作為輸入,我們可以將其視為監督學習問題。監督式SR方法是同時使用LR和相應的HR圖像進行訓練。

先來看看主要的算法:

監督式SR方法框架

通過上採樣模塊在模型中的位置,可以將這些模型分為四個框架。

1、前置上採樣SR

該方法首先對低解析度圖像進行插值,得到「粗」的高解析度圖像

直接從LR圖像學習HR圖像存在一定難度,利用傳統方法(雙三次插值)上採樣,在通過神經網絡優化重建高質量的細節,是一種直接的解決方案。SRCNN學習經過插值處理的LR圖像到HR圖像之間的映射。

優點:通過傳統算法進行上採樣,神經網絡只需要對粗HR圖像進行精細化處理,大大降低了學習難度。可以將任意大小的插值處理後的圖像作為輸入,效果與單尺度模型相當。

預先上採樣方法的副作用:噪聲放大、模糊、在高維空間計算造成的時間和空間成本大。由於這裡沒有使用轉置卷積,checkerboard artifacts可能會被繞過。

2、後置上採樣SR

在這種情況下,低解析度圖像被傳遞到CNNs。上採樣在最後一層使用可學習層來執行。將上採樣操作移至網絡末端,在低維空間中學習映射。

該方法的優點是在較低維空間(上採樣前)進行特徵提取,從而降低了計算複雜度。此外,通過使用一個可學習的上採樣層,可以對模型進行端到端的訓練。解析度提升只在網絡後端發生,計算複雜度大大提升。上採樣只在一個步驟中進行,學習大的上採樣因子的難度很大。每個尺度都需要單獨的SR模型,無法滿足多尺度SR的需要。

3、逐步上採樣SR

在上面的組中,雖然計算複雜度降低了,但是只使用了一個上採樣卷積。這使得大尺度縮放的學習過程更加困難。為了解決這個缺陷,Laplacian Pyramid SR Network和progressive SR採用了漸進上採樣的框架。在這種情況下,模型使用級聯神經網絡在較小的尺度上每一步逐步重建高解析度的圖像。

通過將一個困難的任務分解成更簡單的任務,可以大大降低學習難度,獲得更好的性能。此外,像curriculum learning這樣的學習策略可以進一步降低學習難度,提高最終的performance。lapSRN 採用漸進式SR框架解決了Post-upsampling SR框架無法滿足的多尺度問題。採用連續的神經網絡結構,逐步重建高解析度圖片。MS-LapSRN和progressive SR也採用了這個框架。但存在模型複雜、訓練難度大的問題。

4、迭代上下採樣SR

另一種流行的模型架構是hourglass(或U-Net)結構。有些變體,如Stacked Hourglass網絡使用幾個連續的hourglass結構,有效地在上採樣和下採樣過程之間交替。

該框架下的模型能夠更好地挖掘出低解析度圖像和高解析度圖像對之間的深層關係,從而提供更高質量的重建結果。為了探究LR-HR圖像對之間的關係,將一種有效的迭代過程——反向投影引入到SR中,迭代的上採樣-下採樣操作,迭代的應用反向投影精細化圖像。計算重建誤差,再將其融合回來調整HR圖像的強度。DBPN採用這種結構,將一系列中間HR結果聯繫起來重構成最後的HR結果。


除了模型中的上採樣位置外,如何執行上採樣也非常重要。儘管存在多種傳統的上採樣方法,但利用CNN來學習端到端的上採樣已逐漸成為一種趨勢。在本節中,我們將介紹一些傳統的基於插值的算法和基於深度學習的上採樣方法。

上採樣方法有:

1、最近鄰插值和雙線性插值

最近鄰插值:每個待插值的位置選擇最相鄰的像素值,而不考慮其他像素,處理速度快,生成圖片質量低、塊狀化。

雙線性插值:每次在一個軸上進行,然後在另一個軸上再次進行。保持速度較快的同時,性能比最近鄰插值好得多。感受野為2*2雙三次插值同樣,雙三次插值對圖像的兩個維度進行三次插值,需要4x4的像素進行計算,計算速度慢,效果更平滑。anti-aliasing的雙三次插值是目前構造SR數據集的主流方法。

基於插值的上採樣方法只能通過圖像的本身內容提高圖像的解析度,並沒有帶來更多信息,相反還有噪聲放大、計算複雜度增加、結果模糊等副作用。

2、轉置卷積

通過插入零值,進行卷積來提高圖像的解析度。由於轉置卷積在保持與卷積兼容的連接模式的同時以端到端的方式放大了圖像大小,因此它被廣泛用作SR模型的上採樣層。

然而,該層很容易在每個軸上引起「不均勻重疊」,並且兩個軸上的相乘結果進一步創建了大小變化的棋盤狀圖案,從而損害了SR性能。

3、亞像素層

通過對卷積產生的多個通道進行reshape,實現上採樣。

與轉置卷積層相比,亞像素層具有更大的感受野,它提供了更多的上下文信息以幫助生成更多逼真的細節。然而,由於感受野的分布是不均勻的,並且塊狀區域實際上共享相同的感受野,因此可能會導致在不同塊的邊界附近出現一些偽影。另一方面,獨立預測塊狀區域中的相鄰像素可能會導致輸出不平滑

4、Meta  upscale  module

以前的方法需要預先定義縮放因子,即針對不同的因子訓練不同的上採樣模塊,效率低下,而且不符合實際需求。Meta  upscale 模塊基於元學習解決任意比例因子的SR。具體來說,對於HR圖像上的每個目標位置,此模塊將其投影到LR特徵圖上的一個小塊(即k ×k×cin),根據密集層的投影偏移和縮放因子預測卷積權重(即,k×k×cin×cout)並執行卷積。

這樣,Meta  upscale  module可以通過單個模型以任意因子連續放大它。並且由於大量的訓練數據(同時訓練多個因素),該模塊在固定因素上可以表現出相當甚至更好的性能。但是,該方法基於與圖像內容無關的多個值來預測每個目標像素的大量卷積權重,因此當面對較大放大倍數時,預測結果可能不穩定且效率較低。


除了經典的2D卷積,網絡中還可以使用一些有趣的變體來改進結果。Dilated卷積可以提供更有效的感受野,因此可以使用長距離依賴的信息。Skip connections、Spatial Pyramid Pooling和Dense Blocks推動了低級特徵和高級特徵的結合,以提高性能。

1、Residual Learning

全局殘差學習:由於輸入與輸出圖像高度相關,研究者嘗試只學習兩幅圖像的殘差,只需要學習一個殘差映射恢復丟失的高頻細節,大大降低了模型的複雜度和難度。

局部殘差學習:用於緩解網絡不斷加深造成的梯度消失、爆炸的問題,增強網絡的學習能力。

由跳躍連接和逐像素加法進行計算,前者連接輸入與輸出,後者在不同網絡層之間進行連接。

2、Recursive Learning

為了實現更大的感受野和進行更高層次的特徵學習並且避免更多的參數,將遞歸引入模型。16個循環的DRCN採用單卷積層遞歸,感受野達到41×41,遠大於SRCNN的13×13,並且沒有過多參數。

DRRN將殘差塊作為遞歸單元進行25次遞歸,性能優於17個殘差塊的非遞歸基線。

後來Tai等人提出了基於記憶塊的MemNet,記憶塊由6個遞歸殘塊組成,每個遞歸的輸出連接起來,再經過一個額外的1×1卷積進行記憶和遺忘。CARN也採用了包含多個殘差塊的遞歸單元。

Han等提出了雙狀態遞歸網絡(dual-state network, DSRN)來交換HR狀態和LR狀態之間的信號。在每個時間步,它們根據當前LR狀態和HR狀態更新LR狀態,然後將其傳輸到HR狀態進行更新。通過雙態遞歸學習(最多7次遞歸),更好地探索了LR-HR圖像對之間的深層關係。而Lai不僅將卷積層作為遞歸層,還將特徵嵌入模塊、特徵上採樣模塊和圖像上採樣模塊作為遞歸模塊,對每個子問題共享參數。

遞歸學習使得參數的數量大大減少,但帶來了梯度消失和梯度爆炸的問題。因此通常將殘差學習和遞歸學習結合來緩解這些問題。

3、Multi-path Learning

多路徑學習是指通過模型的多個路徑傳遞特性,這些路徑執行不同的操作,以提供更好的建模能力。具體來說,它可以分為三種類型:

Global Multi-path Learning:全局多路徑學習是指利用多個路徑提取圖像不同方面的特徵。這些路徑在傳播過程中可以相互交叉,從而大大提高了特徵提取的能力。

LapSRN 包含一種從粗到細預測子帶殘差的特徵提取路徑,以及一種基於兩種路徑信息重構可見HR圖像的圖像重建路徑。

同樣,DSRN利用LR路徑和HR路徑分別在低維空間和高維空間中提取信息。這兩條路徑不斷交換信息,進一步提高學習能力。

Local Multi-path Learning:MSRN採用了一種新的多尺度特徵提取塊,如上圖所示,在該塊中,採用核大小為3×3和5×5的兩個卷積運算同時提取特徵,然後將輸出串接起來,再次進行相同的運算,最後再進行一個額外的1×1卷積。,最後再進行一個額外的1×1卷積。跳躍連接通過elementwise加法連接此塊的輸出和輸入。通過這種局部多路徑學習,SR模型可以更好地從多個尺度提取圖像特徵,進一步提高性能。

Scale-specific Multi-path Learning:不同尺度要經歷相同的特徵提取過程,提出這種結構,來處理單一網絡下的多尺度SR問題。

具體來說,它們共享模型的主要部分,並在網絡的開始端和結束端分別附加特定尺度的預處理路徑和上採樣路徑。在訓練期間,只啟用與所選比例相對應的路徑。通過這種方式,大多數參數可以在不同的尺度上共享。

4、Dense Connections

5、Channel Attention

6、Advanced Convolution


Dilated Convolution. 空洞卷積,增大感受野,有助於生成逼真的細節

Group Convolution:群卷積。一些工作已經證明,群卷積可以在性能不高的情況下減少大量的參數和運算,而CARN-M在性能損失很小的情況下將參數數量減少了5倍,運算減少了4倍。

7、Pixel Recursive Learning

大多數SR模型將SR看作是一個像素獨立的任務,因此不能合理地獲取生成像素之間的相互依賴關係。

受PixelCNN的啟發,Dahl等首先提出像素遞歸學習,利用兩個網絡分別捕獲全局上下文信息和序列生成依賴關係,逐像素生成。雖然這些方法在一定程度上表現出了較好的性能,但是需要較長的傳播路徑的遞歸過程大大增加了計算成本和訓練難度,特別是對於超解析度HR圖像。

8、Pyramid Pooling

受空間金字塔池層的激勵,提出了金字塔池模塊,以更好地利用全局和局部上下文信息。

9、Wavelet Transformation

10、Desubpixel

11、xUnit


利用損失函數來測量生成的高解析度圖像與ground truth高解析度圖像之間的差異。然後用這個差(誤差)來優化監督學習模型。存在幾種類型的損失函數,每一種函數都對生成的圖像的不同方面進行懲罰。

通常,通過對每個損失函數的誤差分別加權和求和,可以使用多個損失函數。這使得模型能夠同時關注多個損失函數所貢獻的方面。

 total_loss = weight_1 * loss_1 + weight_ 2 * loss_2 + weight_3 * loss_3

像素損失

像素損失是最簡單的一類損失函數,其中生成的圖像中的每個像素都直接與ground-truth圖像中的每個像素進行比較。使用流行的損失函數,如L1或L2損失,或高級變體,如smooth L1損失。

PSNR度量(下面討論)與像素損失高度相關,因此最小化像素損失可以直接最大化PSNR度量值(表明性能良好)。然而,像素損失並沒有考慮到圖像質量,而且模型常常輸出感知上不令人滿意的結果(通常缺乏高頻細節)。

內容損失

這種損失是基於圖像的感知質量來評估圖像質量的。一種有趣的方法是比較生成的圖像和ground truth圖像的高層特徵。我們可以讓圖像通過一個預先訓練好的圖像分類網絡(如VGG-Net或ResNet)來獲得這些高級特徵。

上面的函數計算ground-truth圖像和生成的圖像之間的內容損失,給定pre-trained網絡(Φ),和第I層的輸出,網絡計算這兩者的損失。這種損失鼓勵生成的圖像在感知上類似於ground-truth圖像。由於這個原因,它也被稱為感知損失。

紋理損失

為了使生成的圖像具有與ground-truth圖像相同的樣式(紋理、顏色、對比度等),使用紋理損失(或樣式重建損失)。根據Gatys et. al的描述,圖像的紋理被定義為不同特徵通道之間的相關性。特徵通道通常用預訓練的圖像分類網絡(Φ)來提取。

計算Gram矩陣

特徵圖之間的相關關係用Gram矩陣(G)表示,G是矢量化特徵圖ij在圖層I上的內積(見上圖)。一旦對兩幅圖像計算了Gram矩陣,計算紋理損失就很簡單,如下圖所示:

計算紋理損失

通過使用這種損失,推動模型來創建真實的紋理和視覺上更令人滿意的結果。

Total Variation損失

利用Total Variation (TV)損失抑制生成圖像中的噪聲。它取相鄰像素之間的絕對差值之和,並測量圖像中有多少噪聲。對於生成的圖像,TV loss計算如下:

這裡, i,j,k 分別對高度,寬度和通道進行迭代。

對抗損失

生成對抗網絡(GANs)已越來越多地用於包括超解析度在內的幾種基於圖像的應用。GANs通常由兩個神經網絡組成——生成器和鑑別器——相互競爭。

給定一組目標樣本,生成器嘗試生成樣本,以欺騙鑑別器,使其相信它們是真實的。鑑別器試圖從假(生成的)樣本中分辨出真實(目標)樣本。使用這種迭代訓練方法,我們最終得到一個生成器,它非常擅長生成與目標示例類似的示例。下圖顯示了一個典型GAN的結構。

為了提高性能,對基本GAN體系結構進行了改進。例如,Park et. al使用特徵級鑑別器來捕捉真實高解析度圖像的更有意義的潛在屬性。你可以查看這個blog:https://medium.com/beyondminds/advances-in-geners-adversarialnetworks-7bad57028032?

通常情況下,進行對抗損失訓練的模型具有更好的感知質量,即使它們在PSNR上可能比那些進行像素損失訓練的模型要差。一個小缺點是,GAN的訓練過程有點困難和不穩定。但是,目前正在積極研究穩定的GAN的訓練的方法。


1、深度圖超解析度

深度圖記錄了場景中視點和目標之間的距離,深度信息在姿態估計 、語義分割 等許多任務中發揮著重要作用。然而,由於生產力和成本方面的限制,由深度傳感器生成的深度圖通常解析度較低,並飽受噪聲、量化、缺失值等方面的降級影響。為了提高深度圖的空間解析度,研究人員引入了超解析度。

2、人臉圖像超解析度

人臉圖像超解析度(又名 face hallucination,FH)通常有助於完成其它與人臉相關的任務。與一般圖像相比,人臉圖像擁有更多與人臉相關的結構化信息,因此將人臉先驗知識整合到 FH 中是一種非常流行且頗有前景的方法。

3、超光譜圖像超解析度

與全色圖像(panchromatic image,PAN)相比,超光譜圖像(HSI)包含數百個波段的高光譜圖像,能夠提供豐富的光譜特徵,幫助完成許多視覺任務。然而,由於硬體限制,不僅是搜集高質量 HSI 比搜集 PAN 難度更大,搜集到的 HSI 解析度也要更低。因此,該領域引入了超解析度,研究人員往往將 HR PAN 與 LR HSI 相結合來預測 HR HSI。

4、視頻超解析度

在視頻超解析度中,多個幀可以提供更多的場景信息,該領域不僅有幀內空間依賴,還有幀間時間依賴(如運動、亮度和顏色變化)。因此,現有研究主要關注更好地利用時空依賴,包括明確的運動補償(如光流算法、基於學習的方法)和循環方法等。

5、其它應用

基於深度學習的超解析度也被應用到其它特定領域的應用中,而且表現出色。尤其是,RACNN 利用 SR 模型增強了用於細粒度分類的 LR 圖像細節的可辨性。類似地,感知 GAN 通過超分辨小目標的表徵解決了小目標檢測問題,實現了與大目標相似的特徵,檢測更具可辨性。FSR-GAN超分辨化了特徵空間而非像素空間中的小圖像,將質量較差的原始特徵轉換成了可辨性更高的特徵,這對圖像檢索非常有利。此外,Dai 等人驗證了 SR 技術在若干視覺應用中的有效性和有用性,包括邊緣檢測、語義分割、數字和場景識別。Huang 等人 開發了專門用於超解析度遙感圖像的 RS-DRL。Jeon 等人  利用立體圖像中的視差先驗來重建配準中具有亞像素準確率的 HR 圖像。

可考慮從如下方面改進網絡結構:

Combining Local and Global Information,結合局部和全局信息,大的感受野可以提供更多的紋理信息,這樣可生成更加真實的的HR圖像。

Combining Low- and High-level Information,結合低層和高層信息,deep CNNs中的較淺層易於抽取如顏色和邊緣等低層特徵,而較高層更易獲得如目標識別等高層次的特徵表示,結合低層網絡抽取的低層細節信息和高層網絡抽取到的高層紋理信息可獲得效果更好的HR圖像。

Context-specific Attention,結合特定內容的注意力機制,增強主要特徵可促進生成的HR圖像具體更加真實的細節。

Lightweight Architectures,目前網絡結構日趨複雜,如何減少模型大小,加快預測時間並保持性能仍然是一個研究課題。

Upsampling Layers,如何設計出有效並有效率的上採樣層是值得研究的,特別是在放大倍數較大的圖像超解析度問題上。

2.Learning Strategies(學習策略)

Loss Functions,目前的損失函數是建立於 LR/HR/SR 圖像之間的限制並優化層面上的。在實際應用上,通常把這些損失函數進行加權得到,對SR問題來說,最有效的損失函數還不明確。因此,一項有意義的研究工作是,如何找到 LR/HR/SR 圖像間的潛在聯繫並找到更加準確的損失函數。

Normalization,雖然BN在視覺問題上大量使用,但是在SR問題上,BN並不是最佳的規範化效果,有時使用BN反而會得到不好的效果。因此,在SR領域,其他有效的規範化技術是需要被提出的。

3.Evaluation Metrics(評價方法)

More Accurate Metrics,傳統的PSNR/SSIM圖像質量評價方法並不能客觀反應圖像的主觀效果,MOS方法需要大量的人力成本並且不能再現。因此,更加精確的圖像質量評價方法亟待提出。

Blind IQA Methods,目前所提到的SR問題,都是LR-HR圖像對做出的,但是,在這類數據集是很難獲得的,大部分都是通過人工手段獲得的LR-HR圖像對。這樣,在評價這類問題時,就變成了反向預測退化問題的過程,因此,無依賴的圖像質量評價方法是有很大需要的。

4.Unsupervised Super-resolution(無監督圖像超解析度)

文中提到了一些已有的無監督超解析度工作:

A. Shocher, N. Cohen, and M. Irani, 「zero-shot super-resolution using deep internal learning,」 in CVPR, 2018.

A. Bulat, J. Yang, and G. Tzimiropoulos, 「To learn image super- resolution, use a gan to learn how to do image degradation first,」 in ECCV, 2018.

Y. Yuan, S. Liu, J. Zhang, Y. Zhang, C. Dong, and L. Lin, 「Unsu- pervised image super-resolution using cycle-in-cycle generative adversarial networks,」 in CVPRW, 2018.

D. Ulyanov, A. Vedaldi, and V. Lempitsky, 「Deep image prior,」 in CVPR, 2018.

目前大量的SR方法都是使用Matlab Bicubic方法獲得LR圖像,用LR-HR作為SR網絡的訓練數據,這樣SR問題會變成預先定義圖像退化過程的逆過程,在自然低解析度圖像上應用這類SR方法,效果會很不好。因此,在未來的研究領域,沒有LR-HR圖像對的無監督圖像超解析度問題是有意義的研究方向。

5.Towards Real-world Scenarios(面向真實場景)

Image super-resolution在真實場景上,往往會受到「不明確的圖像退化過程」,「缺少LR-HR圖像對」等的條件限制,使得現有的SR算法難以實際應用。

Dealing with Various Degradation,解決多種圖像退化問題,針對不同方式獲得的LR圖像。目前已有一部分這方面的工作,但是存在一些固有缺點,如模型難以訓練,過於理想的假設條件。

Domain-specific Applications,特定領域的應用,SR算法不一定非要用於特定領域數據或場景中,SR算法同樣可協助處理其他視覺問題,如視頻監控、人臉識別、目標跟蹤、醫學圖像、場景渲染等。SR算法可用於這類視覺問題的預處理或後處理。

Multi-scale Super-resolution,目前大部分SR網絡是針對固定放大尺寸訓練的,實際應用中,有一定局限性。使用單一網絡的進行多尺度圖像超解析度,有一定的研究價值。最近在CVPR 2019上,曠視提出了「Meta-SR: A Magnification-Arbitrary Network for Super-Resolution」:單一模型實現任意縮放因子。是這一研究方向的最新進展。


參考文章

https://blog.csdn.net/weixin_43840215/article/details/89519000

https://blog.csdn.net/qq_36331193/article/details/100690424

https://blog.csdn.net/nuonuo_orz/article/details/96474511

https://medium.com/beyondminds/an-introduction-to-super-resolution-using-deep-learning-f60aff9a499d

掃描上方微信號,進入學習群。

目標檢測、圖像分割、自動駕駛、機器人、面試經驗。

福利滿滿,名額已不多…

相關焦點

  • 基於深度學習的超解析度圖像技術一覽
    關注 極市平臺 公眾號 ,回復 加群,立刻申請入群~作者:黃浴,奇點汽車美研中心首席科學家兼總裁https://zhuanlan.zhihu.com/p/76820438本文已獲作者授權,未經允許,不得二次轉載近年來,使用深度學習技術的圖像超解析度(
  • 基於深度學習的圖像超解析度技術
    SR是指通過軟體或硬體的方法,從觀測到的低解析度圖像重建出相應的高解析度圖像(說白了就是提高解析度),在監控設備、衛星圖像遙感、數字高清、顯微成像、視頻編碼通信、視頻復原和醫學影像等領域都有重要的應用價值。近年來,目睹了使用深度學習技術的圖像超解析度的顯著進步。
  • 最新綜述丨視頻超解析度研究方法
    看點近年來,深度學習在很多領域取得了進展,其中包括視頻超解析度任務。本文是第一個也是唯一一個視頻超分方向的綜述,主要看點如下:1)回顧了基於深度學習的視頻超分技術的研究進展;2)提出了一種基於深度學習的視頻超分分類方法,利用不同處理幀間信息的方式進行分類;3)總結了SOTA方法在一些公共基準數據集上的性能;4)分析了視頻超分任務的一些前景和挑戰;背景
  • CVPR 2021 | 基於跨任務場景結構知識遷移的單張深度圖像超解析度方法
    >代碼連結:https://github.com/Sunbaoli/dsr-distillation本項研究針對深度傳感系統獲取的場景深度圖像解析度低和細節丟失等問題,突破現有基於彩色指導的場景深度復原方法的局限性,即在訓練及測試階段同時需要高解析度彩色圖像和降質深度圖像作為網絡輸入來估計高質量深度圖像(在實際測試環境中,同視角的高解析度彩色輔助信息並不容易獲得
  • 普通視頻轉高清:10個基於深度學習的超解析度神經網絡
    在 AlphaGo 對弈李世石、柯潔之後,更多行業開始嘗試通過機器學習優化現有技術方案。其實對於實時音視頻來講,對機器學習的研究已有多年,我們曾分享過的實時圖像識別只是其中一種應用。我們還可以利用深度學習來做超解析度。我們這次就分享一下用於超解析度的深度學習基本框架,以及衍生出的各種網絡模型,其中有些網絡在滿足實時性方面也有不錯的表現。
  • 深度學習在圖像超解析度重建中的應用
    SR可分為兩類:從多張低解析度圖像重建出高解析度圖像和從單張低解析度圖像重建出高解析度圖像。基於深度學習的SR,主要是基於單張低解析度的重建方法,即Single Image Super-Resolution (SISR)。SISR是一個逆問題,對於一個低解析度圖像,可能存在許多不同的高解析度圖像與之對應,因此通常在求解高解析度圖像時會加一個先驗信息進行規範化約束。
  • 信息"從無到有":光學遙感圖像超解析度技術研究
    錢學森空間技術實驗室李峰課題組在國家自然科學基金和實驗室自主創新課題的資助下,成功突破了遙感圖像超解析度重構的關鍵技術,利用多時相、同一場景的低解析度遙感圖像採用後處理的方式重構出高解析度圖像。圖像配準和圖像重構是超解析度重構的兩個關鍵技術。
  • 深度學習超解析度最新綜述:一文道盡技術分類與效果評測
    DPSR:應對圖像模糊降質CVPR 2019 | 曠視提出超解析度新方法Meta-SR:單一模型實現任意縮放因子CVPR 2019 | Adobe提出新型超解析度方法:用神經網絡遷移參照圖像紋理小米開源FALSR算法:快速精確輕量級的超解析度模型。
  • 殘差密集網絡:利用所有分層特徵的圖像超解析度網絡
    圖像超解析度在安防等很多領域有這廣泛的應用,而美國東北大學最近提出了一種殘差密集網絡來從原圖生成高解析度圖像。該網絡結合殘差網絡與密集連接網絡的特性充分利用原始 LR 圖像的所有分層特徵,因而能重構出高質量的圖像。
  • CVPR 2021 論文大盤點-超解析度篇
    與卷積神經網絡相比,加法神經網絡利用加法來計算輸出特徵,從而避免了傳統乘法的大量能量消耗。但由於計算模式的不同,很難將現有的加法神經網絡在大規模圖像分類上的成功經驗直接移植到圖像超解析度任務上。具體來說,加法器操作不能輕易地學習身份映射,這對圖像處理任務來說是至關重要的。此外,高通濾波器的功能也不能由加法器網絡來保證。
  • 用於單圖像超解析度的對偶回歸網絡,達到最新SOTA|CVPR 2020
    作者 | Yong Guo, Jian Chen等譯者 | 劉暢通過學習從低解析度(LR)圖像到高解析度(HR)圖像之間的非線性映射函數,深度神經網絡在圖像超解析度(SR)任務上取得了較好的性能。引言深度神經網絡(DNN)已成為許多實際應用的主力軍方法,包括圖像分類,視頻理解等等。最近,圖像超解析度(SR)已成為一個熱門的方向,它主要是學習從低解析度(LR)圖像到高解析度(HR)圖像之間的非線性映射。
  • 學界 | NTIRE2017奪冠論文:用於單一圖像超解析度的增強型深度殘差網絡
    (SR)問題,尤其是單一圖像超解析度(SISR)問題,在近幾十年中已經受到了廣泛的研究關注。SISR 問題旨在從一個單一低解析度圖像中重構出一個高解析度圖像。通常情況下,低解析度圖像和原始的高解析度圖像可根據情境而產生變化。很多研究都假設低解析度圖像是高解析度圖像的降採樣結果。最近,深度神經網絡在 SR 問題中的峰值信噪比(PSNR)方面帶來了很大的性能提升。然而,這種網絡也在結構最優化原則(architecture optimality)中暴露了其局限性。
  • 這個模型腦補能力比GAN更強,ETH提出新型超解析度模型SRFlow
    超解析度是一個不適定問題(ill-posed problem),它允許對給定的低解析度圖像做出多種預測。這一基礎事實很大程度上被很多當前最優的深度學習方法所忽略,這些方法將重建和對抗損失結合起來,訓練確定性映射(deterministic mapping)。
  • ESRGAN-進擊的超解析度復原
    超解析度成像(Super-resolution imaging,縮寫SR),是一種提高影片解析度的技術。在一些稱為「光學SR」的SR技術中,系統的衍射極限被超越;而在其他所謂的「幾何SR」中,數位感光元件的解析度因而提高。超解析度成像技術用於一般圖像處理和超高解析度顯微鏡。
  • 從ECCV2018看超解析度研究趨勢
    ,我們可以了解前沿科技的發展,本文是一篇根據ECCV2018來分析圖像超解析度(Single Image Super-resolution)研究趨勢的文章。注意:本文主要是我參會的學習筆記,亮點以及一些我認為有趣的想法。並不是詳盡的論文摘要,更多關於論文的細節,都會附上連結供大家參考。在處理各種非特定類圖像數據的一般方法中,很少有人明確關注面部超解析度。我相信任何一個接觸過圖像超解析度的人都會知道面部是最難處理的。你的網絡或許可以在PSNR上打敗SOTA,保持紋理、光線平衡,但是這些手段都不足以讓生成的面部足夠真實。
  • ICCV 2019 | RankSRGAN:排序學習 + GAN 用於超解析度
    單幅圖像超解析度重建旨在從一幅低解析度(LR)圖像重建或生成一幅高解析度(HR)圖像。近期基於CNN的SISR研究逐漸增多,主要分為兩類:一類是將SR視為重建問題,利用MSE作為損失函數以獲得高PSNR值;另一類方法是將SR轉換為圖像生成問題,以獲得更好的視覺質量。第二類方法能獲得更加逼真的重建圖像,該文就是研究這種感知SR方法。
  • CUCaNet:融合交叉注意力耦合解混網絡的無監督高光譜圖像超解析度 | ECCV 2020
    今天介紹的論文來自西安交通大學徐宗本和孟德宇老師團隊,提出了一種融合交叉注意力的耦合解混網絡,用於高光譜圖像超解析度。 論文結構如下: 代碼地址:https://github.com/danfenghong/ECCV2020_CUCaNet 近年來,隨著深度學習技術的發展,高光譜圖像超解析度(HSI-SR)研究取得了非常大的進展。然而,使用無監督深層網絡解決這項任務仍然具有挑戰性。
  • 超解析度技術如何發展?這6篇ECCV 18論文帶你一次盡覽
    一:學習圖像超解析度,先學習圖像退化論文:To learn image super-resolution, use a GAN to learn how to do image degradation first地址:http://openaccess.thecvf.com/
  • 谷歌超解析度技術 RAISR :模糊圖片瞬變高清,速度提升數十倍
    實際使用中,RAISR 會在已經學習到的過濾器列表中選擇最合適的過濾器, 應用於低解析度圖片的每一個像素周圍。當這些過濾器被應用於更低畫質的圖像時,它們會重建出相當於原始解析度的細節,這大幅優於線性、雙三(bicubic)、蘭索斯 (Lancos)解析方式。
  • SRCliqueNet: 基於小波子帶共同學習的集團結構超解析度網絡
    2.1 整體框架如圖1所示,我們的SRCliqueNet主要由兩個子網組成:特徵嵌入網絡(FEN)和圖像復原網絡(IRN)。特徵嵌入網絡從低解析度輸入圖像提取出豐富的特徵圖。圖像復原網絡對特徵嵌入網絡獲得的特徵圖進行上採樣並重建圖像。圖1:基於小波子帶共同學習的Clique結構超解析度網絡的整體結構。