天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于特征增強(qiáng)的超分辨率圖像重建算法研究

發(fā)布時(shí)間:2021-01-20 01:55
  在視頻監(jiān)控、醫(yī)學(xué)影像、遙感衛(wèi)星等特殊的應(yīng)用場景,受到硬件限制、噪聲干擾等因素的影響,只能獲得低分辨率(Low Resolution,LR)圖像。超分辨率(Super Resolution,SR)重建技術(shù)通過算法恢復(fù)低分辨率圖像所丟失的細(xì)節(jié)信息,彌補(bǔ)硬件的不足。近幾年,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的超分辨率重建算法成為研究的熱點(diǎn),使用大量的數(shù)據(jù)樣本,并利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)低分辨率圖像和高分辨率(High Resolution,HR)圖像之間的關(guān)系進(jìn)行建模,超分辨率重建的性能得到了極大的提升。目前基于卷積神經(jīng)網(wǎng)絡(luò)的超分辨率算法仍然面臨許多嚴(yán)峻的挑戰(zhàn),比如細(xì)節(jié)重建效果差、參數(shù)和計(jì)算量大、訓(xùn)練難度高,難以應(yīng)用于實(shí)時(shí)場景。為了能充分利用低分辨率圖像的特征信息,本文從特征增強(qiáng)的角度進(jìn)行了研究,從而提高超分辨率重建性能。本文對(duì)計(jì)算量較小和重建性能優(yōu)異的IDN(Information Distillation Network)網(wǎng)絡(luò)進(jìn)行改進(jìn),提出了RD-IDN(Residual Dense Information Distillation Netwo... 

【文章來源】:重慶郵電大學(xué)重慶市

【文章頁數(shù)】:66 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于特征增強(qiáng)的超分辨率圖像重建算法研究


倍尺度為了從視覺感知上進(jìn)行算法的對(duì)比

對(duì)比圖,尺度,對(duì)比圖,效果


重慶郵電大學(xué)碩士學(xué)位論文第3章基于特征增強(qiáng)的超分辨率網(wǎng)絡(luò)33如表3.2所示,為放大尺度為4倍時(shí)各算法的PSNR和SSIM值對(duì)比情況。對(duì)于PSNR來說,本章的方法在四個(gè)數(shù)據(jù)集上都達(dá)到了最高值,分別比IDN高了0.1、0.1、0.01、0.22。對(duì)于SSIM來說,本章的方法在Set14、BSDS100、Urban100三個(gè)數(shù)據(jù)集上取得了最高值。綜合SSIM和PSNR來看,本章的方法比大多數(shù)方法更好。表3.24倍尺度放大PSNR(dB)和SSIM對(duì)比算法Set5Set14BSDS100Urban100PSNR/SSIMPSNR/SSIMPSNR/SSIMPSNR/SSIMBicubic28.42/0.81026.10/0.70425.96/0.66923.15/0.659SRCNN30.49/0.86227.61/0.75426.91/0.71224.53/0.724VDSR31.35/0.88228.03/0.77027.29/0.72625.18/0.753DRCN31.53/0.88428.04/0.77027.24/0.72425.14/0.764LapSRN31.54/0.88528.19/0.77227.32/0.72825.21/0.756DRRN31.68/0.88828.21/0.77227.38/0.72825.44/0.764MemNet31.74/0.88928.26/0.77227.40/0.72825.50/0.763IDN31.82/0.89328.25/0.77327.41/0.72925.41/0.763RD-IDN31.92/0.89028.35/0.77627.42/0.73125.63/0.7723.4.2主觀對(duì)比(a)原圖(b)Bicubic(c)SRCNN(d)VDSR(e)LapSRN(f)IDN(g)RD-IDN圖3.94倍尺度放大的效果對(duì)比圖為了從視覺感知上進(jìn)行算法的對(duì)比,本章從Urban100測試數(shù)據(jù)集中選取了“img072.jpg”這張非常具有代表性的圖片進(jìn)行重建效果的可視化。如圖3.9(a)的紅框所示,在原圖中選取了一小塊具有非常多細(xì)節(jié)的子圖像作為對(duì)比圖像,先將對(duì)

性能,情況,方法,圖像


重慶郵電大學(xué)碩士學(xué)位論文第3章基于特征增強(qiáng)的超分辨率網(wǎng)絡(luò)34比圖像進(jìn)行雙三次插值退化縮小4倍尺度,再通過不同的超分辨率重建算法進(jìn)行重建。如圖3.9(b)所示,是通過雙三次插值方法(Bicubic)進(jìn)行重建后的圖像,可以看出圖像的細(xì)節(jié)已經(jīng)模糊,重建效果很差。如圖3.9(g)所示,本章提出的方法重建之后的圖像跟其他方法比起來顏色更為飽滿,邊緣和細(xì)節(jié)更為突出,平滑度更小,圖像的結(jié)構(gòu)信息更接近于原圖。3.4.3訓(xùn)練難度對(duì)比訓(xùn)練難度對(duì)比的目的主要是針對(duì)IDN網(wǎng)絡(luò)和本章改進(jìn)過后的RD-IDN網(wǎng)絡(luò),體現(xiàn)改進(jìn)之后訓(xùn)練難度的降低程度。本章在根據(jù)文獻(xiàn)[44]的方法復(fù)現(xiàn)IDN時(shí),發(fā)現(xiàn)IDN難于訓(xùn)練,文獻(xiàn)[44]的作者使用了多種訓(xùn)練技巧(tricks),如采用不同大小的子圖像訓(xùn)練樣本,采用多階段微調(diào)以及不同的損失函數(shù)等方式進(jìn)行訓(xùn)練,才達(dá)到了文獻(xiàn)[44]所給出的效果。本章的方法大大降低了訓(xùn)練難度,為了和IDN網(wǎng)絡(luò)進(jìn)行公平的對(duì)比,本章采用相同的訓(xùn)練方法,沒有采用任何訓(xùn)練技巧,在相同的數(shù)據(jù)集DIV2K上對(duì)IDN網(wǎng)絡(luò)和RD-IDN網(wǎng)絡(luò)進(jìn)行訓(xùn)練,同時(shí)評(píng)估在Set5數(shù)據(jù)集上的性能,并記錄相關(guān)數(shù)據(jù)。(a)PSNR對(duì)比(b)SSIM對(duì)比圖3.10訓(xùn)練時(shí)的收斂和性能情況如圖3.10所示為本章提出的RD-IDN網(wǎng)絡(luò)和IDN網(wǎng)絡(luò)在訓(xùn)練時(shí)的PSNR和SSIM變化曲線圖。由于IDN是在雙三次插值后的放大圖像的基礎(chǔ)上學(xué)習(xí)全局殘差圖像,所以在開始的時(shí)候IDN的PSNR值和SSIM值是高于本章方法的,但在大約5510次迭代(iters)之后,本章的方法在PSNR值和SSIM值上高于IDN方法,并且隨著迭代次數(shù)越多,PSNR和SSIM差值越大。在整個(gè)訓(xùn)練過程中,IDN方法


本文編號(hào):2988128

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/2988128.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a9acd***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com