基于模型驅(qū)動(dòng)的深度神經(jīng)網(wǎng)絡(luò)的圖像恢復(fù)
發(fā)布時(shí)間:2020-12-03 05:40
圖像信息占據(jù)人們所獲取信息的很大一部分,高質(zhì)量的圖像會(huì)提供更加準(zhǔn)確的信息,而由于圖像信息在獲取、壓縮、傳播、解壓的過程中設(shè)備的限制,客觀上導(dǎo)致了有些圖像質(zhì)量低下。同時(shí)隨著高科技的發(fā)展,多媒體越來越需要高分辨率的圖像滿足人們的主觀需求,所以圖像恢復(fù)問題在生產(chǎn)和生活中有著重要的作用。傳統(tǒng)的基于模型的圖像恢復(fù)方法擁有數(shù)據(jù)項(xiàng)和先驗(yàn)項(xiàng),通過將這兩者結(jié)合,可以在逼近原始圖像整體的基礎(chǔ)上,對(duì)圖像的細(xì)節(jié)進(jìn)行恢復(fù)。在傳統(tǒng)的基于模型的方法中,圖像先驗(yàn)信息一般是人工提取的,通過觀察圖像特征進(jìn)行設(shè)計(jì),有較為直觀的數(shù)學(xué)表達(dá)式,但是存在先驗(yàn)信息單一的問題。而基于深度學(xué)習(xí)的圖像恢復(fù)方法,則依賴于大數(shù)據(jù)的驅(qū)動(dòng),端到端的實(shí)現(xiàn)低質(zhì)量圖像到高質(zhì)量圖像的映射,但恢復(fù)結(jié)果大程度上依賴于網(wǎng)絡(luò)的設(shè)計(jì),并且隨著卷積網(wǎng)絡(luò)層數(shù)的加深,恢復(fù)效果提升甚微。本文結(jié)合這兩種方式,提出了本文的算法——基于模型驅(qū)動(dòng)深度神經(jīng)網(wǎng)絡(luò)的圖像恢復(fù)方法。本文的創(chuàng)新點(diǎn)有以下三點(diǎn):1、借助深度學(xué)習(xí)強(qiáng)大的特征提取能力,學(xué)習(xí)了基于深度神經(jīng)網(wǎng)絡(luò)的去噪算子,該算子能夠較為全面的提取圖像的混合先驗(yàn)信息,為基于模型的圖像恢復(fù)方法提供了更加準(zhǔn)確的約束條件。采用結(jié)構(gòu)對(duì)稱的U-Ne...
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:91 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
1常見.的i良讓圖像舉型
網(wǎng)絡(luò)中對(duì)應(yīng)原來迭代過程的步驟與上一步迭代過程的依賴性減弱,但是可以實(shí)現(xiàn)從整體上優(yōu)化的特點(diǎn)。交替迭代過程展開為端到端的網(wǎng)絡(luò)圖同時(shí),由于引入深度神經(jīng)網(wǎng)絡(luò),并且在展開為端到端的的網(wǎng)絡(luò)時(shí),卷積網(wǎng)絡(luò)部分重復(fù)出現(xiàn),因此考慮到整個(gè)網(wǎng)絡(luò)的參數(shù)量,我們使得 CNN 部分的參數(shù)進(jìn)行共用。因此在不同的迭代次數(shù)中,基于深度神經(jīng)網(wǎng)絡(luò)的去噪算子共用的是一組參數(shù),也就是說該基于深度神經(jīng)網(wǎng)絡(luò)的去噪算子可以涵蓋不同噪聲程度的圖像的混合先驗(yàn)信息,相比較上一章的 NCSR 去噪算子,本章中基于深度神經(jīng)網(wǎng)絡(luò)的去噪算子對(duì)噪聲方差的包容性更大。具體的我們在 CNN 部分采用了 U-Net 結(jié)構(gòu),對(duì)于選取 U-Net 結(jié)構(gòu)的動(dòng)機(jī)我們將在下文進(jìn)行說明。結(jié)合具體的迭代函數(shù)和各個(gè)參量之間的關(guān)系,本章中所提出模型驅(qū)動(dòng)的深度神經(jīng)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)大體如圖 4.2。 2 x 1 x1F2Fy 1 f (x ) 0 f (x ) 2 f (x )CNNCNNCNN CNN 3 x3F x
西安電子科技大學(xué)碩士學(xué)位論文4.3 圖像恢復(fù)網(wǎng)絡(luò)的整體實(shí)現(xiàn)相較于上一章中去噪算子要在外部迭代的過程中逐步的計(jì)算,耗費(fèi)時(shí)間較長,在本章算法中則是通過網(wǎng)絡(luò)整體在端到端的訓(xùn)練的過程中進(jìn)行學(xué)習(xí)的。為了減少整個(gè)網(wǎng)絡(luò)的參數(shù)防止過擬合,我們讓基于深度卷積網(wǎng)絡(luò)的去噪算子部分進(jìn)行參數(shù)的共用,網(wǎng)絡(luò)整體的訓(xùn)練采用均方誤差作為損失函數(shù)。損失函數(shù)的具體表現(xiàn)形式如下: 221argmin ;Ni iiF y x , (4-22)其中iy 和ix 表示第 i 組“退化圖像-干凈圖像”對(duì), ; iF y 表示經(jīng)過包含參數(shù) 的圖像恢復(fù)網(wǎng)絡(luò)恢復(fù)出的圖像組。具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖 4.4。
本文編號(hào):2896077
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:91 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
1常見.的i良讓圖像舉型
網(wǎng)絡(luò)中對(duì)應(yīng)原來迭代過程的步驟與上一步迭代過程的依賴性減弱,但是可以實(shí)現(xiàn)從整體上優(yōu)化的特點(diǎn)。交替迭代過程展開為端到端的網(wǎng)絡(luò)圖同時(shí),由于引入深度神經(jīng)網(wǎng)絡(luò),并且在展開為端到端的的網(wǎng)絡(luò)時(shí),卷積網(wǎng)絡(luò)部分重復(fù)出現(xiàn),因此考慮到整個(gè)網(wǎng)絡(luò)的參數(shù)量,我們使得 CNN 部分的參數(shù)進(jìn)行共用。因此在不同的迭代次數(shù)中,基于深度神經(jīng)網(wǎng)絡(luò)的去噪算子共用的是一組參數(shù),也就是說該基于深度神經(jīng)網(wǎng)絡(luò)的去噪算子可以涵蓋不同噪聲程度的圖像的混合先驗(yàn)信息,相比較上一章的 NCSR 去噪算子,本章中基于深度神經(jīng)網(wǎng)絡(luò)的去噪算子對(duì)噪聲方差的包容性更大。具體的我們在 CNN 部分采用了 U-Net 結(jié)構(gòu),對(duì)于選取 U-Net 結(jié)構(gòu)的動(dòng)機(jī)我們將在下文進(jìn)行說明。結(jié)合具體的迭代函數(shù)和各個(gè)參量之間的關(guān)系,本章中所提出模型驅(qū)動(dòng)的深度神經(jīng)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)大體如圖 4.2。 2 x 1 x1F2Fy 1 f (x ) 0 f (x ) 2 f (x )CNNCNNCNN CNN 3 x3F x
西安電子科技大學(xué)碩士學(xué)位論文4.3 圖像恢復(fù)網(wǎng)絡(luò)的整體實(shí)現(xiàn)相較于上一章中去噪算子要在外部迭代的過程中逐步的計(jì)算,耗費(fèi)時(shí)間較長,在本章算法中則是通過網(wǎng)絡(luò)整體在端到端的訓(xùn)練的過程中進(jìn)行學(xué)習(xí)的。為了減少整個(gè)網(wǎng)絡(luò)的參數(shù)防止過擬合,我們讓基于深度卷積網(wǎng)絡(luò)的去噪算子部分進(jìn)行參數(shù)的共用,網(wǎng)絡(luò)整體的訓(xùn)練采用均方誤差作為損失函數(shù)。損失函數(shù)的具體表現(xiàn)形式如下: 221argmin ;Ni iiF y x , (4-22)其中iy 和ix 表示第 i 組“退化圖像-干凈圖像”對(duì), ; iF y 表示經(jīng)過包含參數(shù) 的圖像恢復(fù)網(wǎng)絡(luò)恢復(fù)出的圖像組。具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖 4.4。
本文編號(hào):2896077
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2896077.html
最近更新
教材專著