成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

深度學(xué)習(xí)在圖像超分辨率重建中的應(yīng)用

xinhaip / 3012人閱讀

摘要:基于深度學(xué)習(xí)的,主要是基于單張低分辨率的重建方法,即。而基于深度學(xué)習(xí)的通過(guò)神經(jīng)網(wǎng)絡(luò)直接學(xué)習(xí)分辨率圖像到高分辨率圖像的端到端的映射函數(shù)。

超分辨率技術(shù)(Super-Resolution)是指從觀測(cè)到的低分辨率圖像重建出相應(yīng)的高分辨率圖像,在監(jiān)控設(shè)備、衛(wèi)星圖像和醫(yī)學(xué)影像等領(lǐng)域都有重要的應(yīng)用價(jià)值。SR可分為兩類:從多張低分辨率圖像重建出高分辨率圖像和從單張低分辨率圖像重建出高分辨率圖像?;谏疃葘W(xué)習(xí)的SR,主要是基于單張低分辨率的重建方法,即Single Image Super-Resolution (SISR)。

SISR是一個(gè)逆問(wèn)題,對(duì)于一個(gè)低分辨率圖像,可能存在許多不同的高分辨率圖像與之對(duì)應(yīng),因此通常在求解高分辨率圖像時(shí)會(huì)加一個(gè)先驗(yàn)信息進(jìn)行規(guī)范化約束。在傳統(tǒng)的方法中,這個(gè)先驗(yàn)信息可以通過(guò)若干成對(duì)出現(xiàn)的低-高分辨率圖像的實(shí)例中學(xué)到。而基于深度學(xué)習(xí)的SR通過(guò)神經(jīng)網(wǎng)絡(luò)直接學(xué)習(xí)分辨率圖像到高分辨率圖像的端到端的映射函數(shù)。

本文介紹幾個(gè)較新的基于深度學(xué)習(xí)的SR方法,包括SRCNN,DRCN, ESPCN,VESPCN和SRGAN等。

1.SRCNN

Super-Resolution Convolutional Neural Network (SRCNN, PAMI 2016, http://mmlab.ie.cuhk.edu.hk/projects/SRCNN.html)是較早地提出的做SR的卷積神經(jīng)網(wǎng)絡(luò)。該網(wǎng)絡(luò)結(jié)構(gòu)十分簡(jiǎn)單,僅僅用了三個(gè)卷積層。

該方法對(duì)于一個(gè)低分辨率圖像,先使用雙三次(bicubic)插值將其放大到目標(biāo)大小,再通過(guò)三層卷積網(wǎng)絡(luò)做非線性映射,得到的結(jié)果作為高分辨率圖像輸出。作者將三層卷積的結(jié)構(gòu)解釋成與傳統(tǒng)SR方法對(duì)應(yīng)的三個(gè)步驟:圖像塊的提取和特征表示,特征非線性映射和最終的重建。

三個(gè)卷積層使用的卷積核的大小分為為9x9, 1x1和5x5,前兩個(gè)的輸出特征個(gè)數(shù)分別為64和32. 該文章分別用Timofte數(shù)據(jù)集(包含91幅圖像)和ImageNet大數(shù)據(jù)集進(jìn)行訓(xùn)練。相比于雙三次插值和傳統(tǒng)的稀疏編碼方法,SRCNN得到的高分辨率圖像更加清晰,下圖是一個(gè)放大倍數(shù)為3的例子。

對(duì)SR的質(zhì)量進(jìn)行定量評(píng)價(jià)常用的兩個(gè)指標(biāo)是PSNR(Peak Signal-to-Noise Ratio)和SSIM(Structure Similarity Index)。這兩個(gè)值越高代表重建結(jié)果的像素值和金標(biāo)準(zhǔn)越接近,下圖表明,在不同的放大倍數(shù)下,SRCNN都取得比傳統(tǒng)方法好的效果。

2.DRCN

SRCNN的層數(shù)較少,同時(shí)感受野也較?。?3x13)。DRCN (Deeply-Recursive Convolutional Network for Image Super-Resolution, CVPR 2016, http://cv.snu.ac.kr/research/DRCN/)提出使用更多的卷積層增加網(wǎng)絡(luò)感受野(41x41),同時(shí)為了避免過(guò)多網(wǎng)絡(luò)參數(shù),該文章提出使用遞歸神經(jīng)網(wǎng)絡(luò)(RNN)。網(wǎng)絡(luò)的基本結(jié)構(gòu)如下:

與SRCNN類似,該網(wǎng)絡(luò)分為三個(gè)模塊,第一個(gè)是Embedding network,相當(dāng)于特征提取,第二個(gè)是Inference network, 相當(dāng)于特征的非線性變換,第三個(gè)是Reconstruction network,即從特征圖像得到最后的重建結(jié)果。其中的Inference network是一個(gè)遞歸網(wǎng)絡(luò),即數(shù)據(jù)循環(huán)地通過(guò)該層多次。將這個(gè)循環(huán)進(jìn)行展開,就等效于使用同一組參數(shù)的多個(gè)串聯(lián)的卷積層,如下圖所示:

其中是D個(gè)共享參數(shù)的卷積層。DRCN將每一層的卷積結(jié)果都通過(guò)同一個(gè)Reconstruction Net得到一個(gè)重建結(jié)果,從而共得到D個(gè)重建結(jié)果,再把它們加權(quán)平均得到最終的輸出。另外,受到ResNet的啟發(fā),DRCN通過(guò)skip connection將輸入圖像與的輸出相加后再作為Reconstruction Net的輸入,相當(dāng)于使Inference Net去學(xué)習(xí)高分辨率圖像與低分辨率圖像的差,即恢復(fù)圖像的高頻部分。

實(shí)驗(yàn)部分,DRCN也使用了包含91張圖像的Timofte數(shù)據(jù)集進(jìn)行訓(xùn)練。得到的效果比SRCNN有了較大提高。

3.ESPCN

在SRCNN和DRCN中,低分辨率圖像都是先通過(guò)上采樣插值得到與高分辨率圖像同樣的大小,再作為網(wǎng)絡(luò)輸入,意味著卷積操作在較高的分辨率上進(jìn)行,相比于在低分辨率的圖像上計(jì)算卷積,會(huì)降低效率。 ESPCN(Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network,CVPR 2016, https://github.com/Tetrachrome/subpixel)提出一種在低分辨率圖像上直接計(jì)算卷積得到高分辨率圖像的高效率方法。

ESPCN的核心概念是亞像素卷積層(sub-pixel convolutional layer)。如上圖所示,網(wǎng)絡(luò)的輸入是原始低分辨率圖像,通過(guò)兩個(gè)卷積層以后,得到的特征圖像大小與輸入圖像一樣,但是特征通道為(是圖像的目標(biāo)放大倍數(shù))。將每個(gè)像素的個(gè)通道重新排列成一個(gè)r x r的區(qū)域,對(duì)應(yīng)于高分辨率圖像中的一個(gè)r x r大小的子塊,從而大小為?x H x W的特征圖像被重新排列成1 x rH x rW大小的高分辨率圖像。這個(gè)變換雖然被稱作sub-pixel convolution, 但實(shí)際上并沒(méi)有卷積操作。

通過(guò)使用sub-pixel convolution, 圖像從低分辨率到高分辨率放大的過(guò)程,插值函數(shù)被隱含地包含在前面的卷積層中,可以自動(dòng)學(xué)習(xí)到。只在最后一層對(duì)圖像大小做變換,前面的卷積運(yùn)算由于在低分辨率圖像上進(jìn)行,因此效率會(huì)較高。

重建效果上,用PSNR指標(biāo)看來(lái)ESPCN比SRCNN要好一些。對(duì)于1080HD的視頻圖像,做放大四倍的高分辨率重建,SRCNN需要0.434s而ESPCN只需要0.029s。

4. VESPCN

在視頻圖像的SR問(wèn)題中,相鄰幾幀具有很強(qiáng)的關(guān)聯(lián)性,上述幾種方法都只在單幅圖像上進(jìn)行處理,而VESPCN( Real-Time Video Super-Resolution with Spatio-Temporal Networks and Motion Compensation, arxiv 2016)提出使用視頻中的時(shí)間序列圖像進(jìn)行高分辨率重建,并且能達(dá)到實(shí)時(shí)處理的效率要求。其方法示意圖如下,主要包括三個(gè)方面:?

一是糾正相鄰幀的位移偏差,即先通過(guò)Motion estimation估計(jì)出位移,然后利用位移參數(shù)對(duì)相鄰幀進(jìn)行空間變換,將二者對(duì)齊。二是把對(duì)齊后的相鄰若干幀疊放在一起,當(dāng)做一個(gè)三維數(shù)據(jù),在低分辨率的三維數(shù)據(jù)上使用三維卷積,得到的結(jié)果大小為。三是利用ESPCN的思想將該卷積結(jié)果重新排列得到大小為的高分辨率圖像。

Motion estimation這個(gè)過(guò)程可以通過(guò)傳統(tǒng)的光流算法來(lái)計(jì)算,DeepMind 提出了一個(gè)Spatial Transformer Networks, 通過(guò)CNN來(lái)估計(jì)空間變換參數(shù)。VESPCN使用了這個(gè)方法,并且使用多尺度的Motion estimation:先在比輸入圖像低的分辨率上得到一個(gè)初始變換,再在與輸入圖像相同的分辨率上得到更較精確的結(jié)果,如下圖所示:

由于SR重建和相鄰幀之間的位移估計(jì)都通過(guò)神經(jīng)網(wǎng)路來(lái)實(shí)現(xiàn),它們可以融合在一起進(jìn)行端到端的聯(lián)合訓(xùn)練。為此,VESPCN使用的損失函數(shù)如下:

第一項(xiàng)是衡量重建結(jié)果和金標(biāo)準(zhǔn)之間的差異,第二項(xiàng)是衡量相鄰輸入幀在空間對(duì)齊后的差異,第三項(xiàng)是平滑化空間位移場(chǎng)。下圖展示了使用Motion Compensation 后,相鄰幀之間對(duì)得很整齊,它們的差值圖像幾乎為0.

從下圖可以看出,使用了Motion Compensation,重建出的高分辨率視頻圖像更加清晰。

5.SRGAN

SRGAN (Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network, https://arxiv.org/abs/1609.04802, 21 Nov, 2016)將生成式對(duì)抗網(wǎng)絡(luò)(GAN)用于SR問(wèn)題。其出發(fā)點(diǎn)是傳統(tǒng)的方法一般處理的是較小的放大倍數(shù),當(dāng)圖像的放大倍數(shù)在4以上時(shí),很容易使得到的結(jié)果顯得過(guò)于平滑,而缺少一些細(xì)節(jié)上的真實(shí)感。因此SRGAN使用GAN來(lái)生成圖像中的細(xì)節(jié)。

傳統(tǒng)的方法使用的代價(jià)函數(shù)一般是最小均方差(MSE),即

該代價(jià)函數(shù)使重建結(jié)果有較高的信噪比,但是缺少了高頻信息,出現(xiàn)過(guò)度平滑的紋理。SRGAN認(rèn)為,應(yīng)當(dāng)使重建的高分辨率圖像與真實(shí)的高分辨率圖像無(wú)論是低層次的像素值上,還是高層次的抽象特征上,和整體概念和風(fēng)格上,都應(yīng)當(dāng)接近。整體概念和風(fēng)格如何來(lái)評(píng)估呢?可以使用一個(gè)判別器,判斷一副高分辨率圖像是由算法生成的還是真實(shí)的。如果一個(gè)判別器無(wú)法區(qū)分出來(lái),那么由算法生成的圖像就達(dá)到了以假亂真的效果。

因此,該文章將代價(jià)函數(shù)改進(jìn)為

第一部分是基于內(nèi)容的代價(jià)函數(shù),第二部分是基于對(duì)抗學(xué)習(xí)的代價(jià)函數(shù)?;趦?nèi)容的代價(jià)函數(shù)除了上述像素空間的最小均方差以外,又包含了一個(gè)基于特征空間的最小均方差,該特征是利用VGG網(wǎng)絡(luò)提取的圖像高層次特征:

對(duì)抗學(xué)習(xí)的代價(jià)函數(shù)是基于判別器輸出的概率:

其中是一個(gè)圖像屬于真實(shí)的高分辨率圖像的概率。是重建的高分辨率圖像。SRGAN使用的生成式網(wǎng)絡(luò)和判別式網(wǎng)絡(luò)分別如下:

該方法的實(shí)驗(yàn)結(jié)果如下

從定量評(píng)價(jià)結(jié)果上來(lái)看,PSNR和SSIM這兩個(gè)指標(biāo)評(píng)價(jià)的是重建結(jié)果和金標(biāo)準(zhǔn)在像素值空間的差異。SRGAN得到的評(píng)價(jià)值不是較高。但是對(duì)于MOS(mean opinion score)的評(píng)價(jià)顯示,SRGAN生成的高分辨率圖像看起來(lái)更真實(shí)。

參考資料

1, Dong, Chao, et al. "Image super-resolution using deep convolutional networks." IEEE transactions on pattern analysis and machine intelligence 38.2 (2016): 295-307.

2, Kim, Jiwon, Jung Kwon Lee, and Kyoung Mu Lee. "Deeply-recursive convolutional network for image super-resolution." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.

3, Shi, Wenzhe, et al. "Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.

4, Caballero, Jose, et al. "Real-Time Video Super-Resolution with Spatio-Temporal Networks and Motion Compensation." arXiv preprint arXiv:1611.05250 (2016).

5, Jaderberg, Max, Karen Simonyan, and Andrew Zisserman. "Spatial transformer networks." Advances in Neural Information Processing Systems. 2015.

6, Ledig, Christian, et al. "Photo-realistic single image super-resolution using a generative adversarial network." arXiv preprint arXiv:1609.04802 (2016).

7,深度對(duì)抗學(xué)習(xí)在圖像分割和超分辨率中的應(yīng)用

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4487.html

相關(guān)文章

  • 深度對(duì)抗學(xué)習(xí)圖像分割和辨率中的應(yīng)用

    摘要:深度學(xué)習(xí)已經(jīng)在圖像分類檢測(cè)分割高分辨率圖像生成等諸多領(lǐng)域取得了突破性的成績(jī)。另一個(gè)問(wèn)題是深度學(xué)習(xí)的模型比如卷積神經(jīng)網(wǎng)絡(luò)有時(shí)候并不能很好地學(xué)到訓(xùn)練數(shù)據(jù)中的一些特征。本文通過(guò)最近的幾篇文章來(lái)介紹它在圖像分割和高分辨率圖像生成中的應(yīng)用。 深度學(xué)習(xí)已經(jīng)在圖像分類、檢測(cè)、分割、高分辨率圖像生成等諸多領(lǐng)域取得了突破性的成績(jī)。但是它也存在一些問(wèn)題。首先,它與傳統(tǒng)的機(jī)器學(xué)習(xí)方法一樣,通常假設(shè)訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)...

    FingerLiu 評(píng)論0 收藏0
  • 淺談AI視頻技術(shù)辨率

    摘要:在這種場(chǎng)景下網(wǎng)易云信可以在接收的終端上通過(guò)超分辨率技術(shù),恢復(fù)視頻質(zhì)量,極大地提升了移動(dòng)端用戶的體驗(yàn)。云信通過(guò)人工智能深度學(xué)習(xí)將低分辨率視頻重建成高分辨率視頻模糊圖像視頻瞬間變高清,為移動(dòng)端為用戶帶來(lái)極致視頻體驗(yàn)。 泛娛樂(lè)應(yīng)用成為主流,社交與互動(dòng)性強(qiáng)是共性,而具備這些特性的產(chǎn)品往往都集中在直播、短視頻、圖片分享社區(qū)等社交化娛樂(lè)產(chǎn)品,而在這些產(chǎn)品背后的黑科技持續(xù)成為關(guān)注重點(diǎn),網(wǎng)易云信在網(wǎng)易...

    Towers 評(píng)論0 收藏0
  • 如何使用深度學(xué)習(xí)重建辨率音頻?

    摘要:音頻超分辨率旨在重建一個(gè)以較低分辨率波形作為輸入的高分辨率音頻波形。由于受到深度學(xué)習(xí)成功應(yīng)用于圖像超分辨率的啟發(fā),我最近致力于使用深層神經(jīng)網(wǎng)絡(luò)來(lái)完成原始音頻波形的上采樣。上采樣塊使用子像素卷積,其沿著一個(gè)維度重新排列信息以擴(kuò)展其他維度。 音頻超分辨率旨在重建一個(gè)以較低分辨率波形作為輸入的高分辨率音頻波形。在諸如流式音頻和音頻恢復(fù)之類的領(lǐng)域中,這種類型的上采樣存在著若干種潛在應(yīng)用。一個(gè)傳統(tǒng)的解...

    voidking 評(píng)論0 收藏0
  • 科學(xué)領(lǐng)域中的深度學(xué)習(xí)一覽

    摘要:深度學(xué)習(xí)方法是否已經(jīng)強(qiáng)大到可以使科學(xué)分析任務(wù)產(chǎn)生最前沿的表現(xiàn)在這篇文章中我們介紹了從不同科學(xué)領(lǐng)域中選擇的一系列案例,來(lái)展示深度學(xué)習(xí)方法有能力促進(jìn)科學(xué)發(fā)現(xiàn)。 深度學(xué)習(xí)在很多商業(yè)應(yīng)用中取得了前所未有的成功。大約十年以前,很少有從業(yè)者可以預(yù)測(cè)到深度學(xué)習(xí)驅(qū)動(dòng)的系統(tǒng)可以在計(jì)算機(jī)視覺(jué)和語(yǔ)音識(shí)別領(lǐng)域超過(guò)人類水平。在勞倫斯伯克利國(guó)家實(shí)驗(yàn)室(LBNL)里,我們面臨著科學(xué)領(lǐng)域中最具挑戰(zhàn)性的數(shù)據(jù)分析問(wèn)題。雖然商業(yè)...

    zhou_you 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<