天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

人臉圖像超分辨率重建優(yōu)化方法研究與應(yīng)用

發(fā)布時(shí)間:2022-01-25 14:26
  極低分辨率人臉圖像僅能為人們提供較少的信息,為后續(xù)的人臉檢測(cè)、識(shí)別技術(shù)帶來(lái)了挑戰(zhàn)。而人臉圖像超分辨率重建技術(shù)可以通過(guò)對(duì)一幅或多幅低分辨率圖像進(jìn)行處理得到高分辨率圖像,從而為后續(xù)處理提供良好基礎(chǔ)。目前發(fā)展較成熟的是4倍人臉圖像重建技術(shù),但是在實(shí)際應(yīng)用場(chǎng)景中,對(duì)于極低分辨率人臉圖像還需要進(jìn)行更大倍數(shù)的重建。只是當(dāng)重建倍數(shù)為8時(shí),大部分重建技術(shù)效果會(huì)急速下降。為此,論文的主要研究目標(biāo)和研究工作是使用深度學(xué)習(xí)技術(shù)來(lái)提高極低分辨率人臉圖像8倍重建的效果。論文的具體研究?jī)?nèi)容如下:(1)基于殘差塊的人臉超分辨率重建方法研究與設(shè)計(jì)。論文以經(jīng)典的基于殘差塊的重建模型SRResNet為基礎(chǔ),從兩種特征利用的角度對(duì)其殘差塊進(jìn)行改進(jìn),分別構(gòu)建了基于殘差SE模塊的重建模型FRSENet和基于殘差密集塊的重建模型FRDBNet。一種特征利用角度是特征重標(biāo)定——對(duì)人臉各特征通道按重要程度進(jìn)行賦值,以鼓勵(lì)殘差塊學(xué)習(xí)對(duì)重建效果有利的特征,具體是通過(guò)構(gòu)建殘差SE模塊來(lái)實(shí)現(xiàn);另一種角度是特征重用——通過(guò)密集連接前后卷積層實(shí)現(xiàn)特征的由前至后逐層傳遞共享,以豐富學(xué)習(xí)過(guò)程中的特征,提升重建效果。實(shí)驗(yàn)表明,提出的兩種重建模型均能夠... 

【文章來(lái)源】:江蘇大學(xué)江蘇省

【文章頁(yè)數(shù)】:65 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

人臉圖像超分辨率重建優(yōu)化方法研究與應(yīng)用


重建系統(tǒng)界面

功能圖,功能,重建圖像,圖像


江蘇大學(xué)工程碩士學(xué)位論文47(d)重建圖像界面展示圖5.4重建功能展示圖Fig.5.4DisplayofReconstructionFunction5.3.2重建圖像管理模塊實(shí)現(xiàn)重建圖像管理模塊通過(guò)對(duì)輸入的LR圖像與輸出的SR圖像進(jìn)行重命名,實(shí)現(xiàn)了對(duì)重建圖像的管理功能。本系統(tǒng)對(duì)所有重建方法賦予一個(gè)ID號(hào)。對(duì)于LR圖像,其命名格式為日期號(hào)加序列號(hào)。對(duì)于重建的圖像,其命名格式為對(duì)應(yīng)LR圖像名稱加重建方法ID以及重建倍數(shù)。通過(guò)圖像管理界面,用戶可以直觀的查看歷史重建記錄,并對(duì)圖像進(jìn)行快捷的查看。重建后的圖像默認(rèn)保存在F盤(pán)的FaceSR_Result文件夾中,且以路徑的形式保存在數(shù)據(jù)庫(kù)中。如圖5.5所示,分別為重建圖像管理界面以及圖像查看界面。(a)重建圖像管理功能展示

功能圖,重建圖像,功能


人臉圖像超分辨率重建優(yōu)化方法研究與應(yīng)用48(b)重建圖像查看功能展示圖5.5重建圖像管理功能展示圖Fig.5.5DisplayofManagementofReconstructedImages5.4本章小結(jié)本章首先對(duì)系統(tǒng)的需求進(jìn)行分析,并按需求進(jìn)行邏輯架構(gòu)與功能的設(shè)計(jì)。接著對(duì)系統(tǒng)的各個(gè)功能模塊進(jìn)行介紹。對(duì)于各個(gè)功能模塊,使用了Python語(yǔ)言、Tkinter界面庫(kù)和Oracle數(shù)據(jù)庫(kù)來(lái)進(jìn)行實(shí)現(xiàn),同時(shí)對(duì)其實(shí)現(xiàn)的功能進(jìn)行界面展示。包括對(duì)不同算法的重建結(jié)果展示、評(píng)價(jià)指標(biāo)PSNR以及SSIM值的計(jì)算與展示、圖像保存功能、圖像管理功能等。本章給出的人臉超分率重建原型系統(tǒng),可以對(duì)三四章提出的重建算法結(jié)果進(jìn)行展示與管理,一定程度可以滿足用戶的需求。

【參考文獻(xiàn)】:
期刊論文
[1]基于生成對(duì)抗網(wǎng)絡(luò)的人臉超分辨率技術(shù)[J]. 張?zhí)炻?楊杰,何文玉,賈利民.  傳感器與微系統(tǒng). 2020(02)
[2]多注意力域的稠密連接人臉超分算法[J]. 劉穎,董占龍,盧津,王富平.  計(jì)算機(jī)工程與應(yīng)用. 2020(20)
[3]基于極深卷積神經(jīng)網(wǎng)絡(luò)的人臉超分辨率重建算法[J]. 孫毅堂,宋慧慧,張開(kāi)華,嚴(yán)飛.  計(jì)算機(jī)應(yīng)用. 2018(04)
[4]基于迭代反投影的超分辨率圖像重建[J]. 郭偉偉,章品正.  計(jì)算機(jī)科學(xué)與探索. 2009(03)



本文編號(hào):3608698

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3608698.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶194da***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com