天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于層級聚類回歸模型的非對齊人臉超分辨率重建

發(fā)布時間:2022-01-21 17:52
  人臉超分辨率重建是指從一個低分辨率人臉圖像重建出相應(yīng)的高分辨率圖像的過程,F(xiàn)有的人臉超分辨率重建算法通常都假設(shè)輸入圖像是對齊且不含噪聲,當輸入的人臉圖像為非對齊圖像時,超分辨率重建算法的性能將降低。本文針對非對齊的單幀人臉圖像的超分辨率重建進行研究。主要研究成果及貢獻如下:(1)、基于駐點鄰域和層級聚類回歸的非對齊人臉超分辨率重建。將人臉空間統(tǒng)一到小尺寸的人臉圖像,用于訓(xùn)練人臉圖像字典。該字典的字典原子為聚類中心,對原始的人臉圖像進行聚類,得到各個子空間的人臉圖像簇。整個訓(xùn)練過程中只需要訓(xùn)練一個全局字典,各個子空間的人臉圖像共享這些字典原子。在每個子空間內(nèi),搜索各個駐點的鄰域,以生成對應(yīng)的鄰域空間。然后學(xué)習(xí)低分辨率與高分辨率樣本特征之間的映射關(guān)系,可以得到每個子空間的回歸模型。該算法的核心是所有的人臉圖像簇共享一個全局字典,但對于同一個駐點,在不同的人臉圖像簇內(nèi),鄰域樣本各不相同,這能夠更準確地學(xué)習(xí)局部映射關(guān)系。實驗結(jié)果表明,該方法相比于同類對比算法在Vggface2和CelebA樣本庫上重建的峰值信噪比值至少提升0.1165 dB,結(jié)構(gòu)相似度提升高達0.1782。(2)、基于層級聚類... 

【文章來源】:南京郵電大學(xué)江蘇省

【文章頁數(shù)】:64 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于層級聚類回歸模型的非對齊人臉超分辨率重建


基于特征轉(zhuǎn)換的人臉超分重建系統(tǒng)圖

網(wǎng)絡(luò)結(jié)構(gòu)圖,網(wǎng)絡(luò)結(jié)構(gòu)


圖 2.1 基于特征轉(zhuǎn)換的人臉超分重建系統(tǒng)圖 年,Chang 等人[2]提出基于 NE 的人臉超分重建方法。流形一致性假設(shè)像及其對應(yīng)的高分辨率圖像具有相似的局部幾何結(jié)構(gòu)和鄰域關(guān)系。基于算法首先從低分辨率訓(xùn)練樣本中尋找多個最近的圖像塊,在最小化重建佳重建權(quán)重。然后,使用相同的權(quán)重,通過高分辨率訓(xùn)練樣本獲得相應(yīng)5 年,清華大學(xué) ErjinZhou 等人[19]提出了一種基于雙通道卷積神經(jīng)網(wǎng)絡(luò)(臉超分辨率重建方法。該方法對于有明顯變化的人臉圖像也能提高圖像l CNN 的網(wǎng)絡(luò)結(jié)構(gòu)圖,如圖 2.2 所示:

聚類,對重,字典,人臉圖像


士研究生學(xué)位論文 第三章 基于駐點鄰域和層級聚類回歸的非對齊人數(shù)對該算法的影響及時間復(fù)雜度的分析的非對齊小尺寸人臉圖像經(jīng)過字典學(xué)習(xí)得到 256 個字典原子,聚主要參數(shù),設(shè)置字典原子經(jīng)過降維處理所保留的成分,對各個成建和對比實驗。將字典原子的主成分分別保留為:97%、98%、像聚類個數(shù)為:198、206、218 和 256,分別進行回歸模型的訓(xùn)練 30 幅人臉圖像,用四種聚類樣本所得到的回歸模型進行重建。參數(shù)為固定值。本章算法在不同聚類個數(shù)下對樣本的圖像進行測 3.8 所示:


本文編號:3600701

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3600701.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶bee05***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com