基于深度先驗(yàn)的相位恢復(fù)算法研究
發(fā)布時(shí)間:2021-09-01 00:47
相位恢復(fù)問題是指僅通過信號(hào)傅里葉變換(或其它線性變換)的幅值恢復(fù)原始信號(hào)。由于相位信息的缺失,該問題是一個(gè)不適定問題,因此需要利用圖像先驗(yàn)來確保精確重構(gòu)。該文針對(duì)基于正則項(xiàng)的圖像重構(gòu)算法具有計(jì)算復(fù)雜度高和在存在噪聲下重構(gòu)精度低的缺陷,將傳統(tǒng)相位恢復(fù)算法與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,對(duì)上述問題進(jìn)行改善。具體的研究?jī)?nèi)容如下:首先,針對(duì)實(shí)際應(yīng)用中重構(gòu)圖像會(huì)受到噪聲干擾的情況,該文訓(xùn)練去除圖片噪聲的深度殘差卷積神經(jīng)網(wǎng)絡(luò)(Residual Learning of Deep CNN for Image Denoising,DnCNN)模型作為去噪算子,引入l2范數(shù)模型作為正則項(xiàng),起到限制解空間范圍、降低模型復(fù)雜度的作用,提出了基于DnCNN-l2范數(shù)的相位恢復(fù)算法。該模型是非凸的,通過交替方向乘子法(Alternating Direction Method of Multipliers,ADMM)求解此非凸優(yōu)化問題。最后通過實(shí)驗(yàn)對(duì)比,驗(yàn)證該算法的有效性。其次,為了改善添加2l范數(shù)模型作為正則項(xiàng)的相位恢復(fù)算法具有計(jì)算復(fù)雜度高、求解速度慢的缺陷...
【文章來源】:燕山大學(xué)河北省
【文章頁(yè)數(shù)】:69 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖1-1兩幅圖像交換相位信息示意圖
圖 3-1 DnCNN 網(wǎng)絡(luò)結(jié)構(gòu)殘差網(wǎng)絡(luò)差網(wǎng)絡(luò)(Residual Network, ResNet)[32]2015 年由 He 等人提出,在 201大賽上取得矚目成績(jī),殘差學(xué)習(xí)的效果如此好的原因之一是與其他網(wǎng)差網(wǎng)絡(luò)具有更深的網(wǎng)絡(luò)層數(shù)。卷積神經(jīng)網(wǎng)絡(luò)的每一層輸出是當(dāng)前層提,這些特征并不是單一層次的,包含了低層、中層和高層,所以網(wǎng)絡(luò)取的特征信息會(huì)越多,不同層次間特征信息的組合也隨之增多。然而深會(huì)產(chǎn)生梯度消失和梯度爆炸的問題,傳統(tǒng)的解決辦法為梯度裁剪、用非線性激活函數(shù)和批量歸一化等,梯度問題雖然解決,但更為嚴(yán)重層數(shù)加深導(dǎo)致的網(wǎng)絡(luò)性能退化,即雖然網(wǎng)絡(luò)越來越深,卻越來越難以征信息。用殘差的思想設(shè)計(jì)網(wǎng)絡(luò)來解決退化問題,同時(shí)也解決了梯度絡(luò)性能大大提高。殘差塊結(jié)構(gòu)如圖 3-2 所示。
圖 3-1 DnCNN 網(wǎng)絡(luò)結(jié)構(gòu)差網(wǎng)絡(luò)網(wǎng)絡(luò)(Residual Network, ResNet)[32]2015 年由 He 等人提出,在 20賽上取得矚目成績(jī),殘差學(xué)習(xí)的效果如此好的原因之一是與其他網(wǎng)絡(luò)具有更深的網(wǎng)絡(luò)層數(shù)。卷積神經(jīng)網(wǎng)絡(luò)的每一層輸出是當(dāng)前層這些特征并不是單一層次的,包含了低層、中層和高層,所以網(wǎng)的特征信息會(huì)越多,不同層次間特征信息的組合也隨之增多。然會(huì)產(chǎn)生梯度消失和梯度爆炸的問題,傳統(tǒng)的解決辦法為梯度裁剪非線性激活函數(shù)和批量歸一化等,梯度問題雖然解決,但更為嚴(yán)數(shù)加深導(dǎo)致的網(wǎng)絡(luò)性能退化,即雖然網(wǎng)絡(luò)越來越深,卻越來越難信息。用殘差的思想設(shè)計(jì)網(wǎng)絡(luò)來解決退化問題,同時(shí)也解決了梯性能大大提高。殘差塊結(jié)構(gòu)如圖 3-2 所示。
本文編號(hào):3375942
【文章來源】:燕山大學(xué)河北省
【文章頁(yè)數(shù)】:69 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖1-1兩幅圖像交換相位信息示意圖
圖 3-1 DnCNN 網(wǎng)絡(luò)結(jié)構(gòu)殘差網(wǎng)絡(luò)差網(wǎng)絡(luò)(Residual Network, ResNet)[32]2015 年由 He 等人提出,在 201大賽上取得矚目成績(jī),殘差學(xué)習(xí)的效果如此好的原因之一是與其他網(wǎng)差網(wǎng)絡(luò)具有更深的網(wǎng)絡(luò)層數(shù)。卷積神經(jīng)網(wǎng)絡(luò)的每一層輸出是當(dāng)前層提,這些特征并不是單一層次的,包含了低層、中層和高層,所以網(wǎng)絡(luò)取的特征信息會(huì)越多,不同層次間特征信息的組合也隨之增多。然而深會(huì)產(chǎn)生梯度消失和梯度爆炸的問題,傳統(tǒng)的解決辦法為梯度裁剪、用非線性激活函數(shù)和批量歸一化等,梯度問題雖然解決,但更為嚴(yán)重層數(shù)加深導(dǎo)致的網(wǎng)絡(luò)性能退化,即雖然網(wǎng)絡(luò)越來越深,卻越來越難以征信息。用殘差的思想設(shè)計(jì)網(wǎng)絡(luò)來解決退化問題,同時(shí)也解決了梯度絡(luò)性能大大提高。殘差塊結(jié)構(gòu)如圖 3-2 所示。
圖 3-1 DnCNN 網(wǎng)絡(luò)結(jié)構(gòu)差網(wǎng)絡(luò)網(wǎng)絡(luò)(Residual Network, ResNet)[32]2015 年由 He 等人提出,在 20賽上取得矚目成績(jī),殘差學(xué)習(xí)的效果如此好的原因之一是與其他網(wǎng)絡(luò)具有更深的網(wǎng)絡(luò)層數(shù)。卷積神經(jīng)網(wǎng)絡(luò)的每一層輸出是當(dāng)前層這些特征并不是單一層次的,包含了低層、中層和高層,所以網(wǎng)的特征信息會(huì)越多,不同層次間特征信息的組合也隨之增多。然會(huì)產(chǎn)生梯度消失和梯度爆炸的問題,傳統(tǒng)的解決辦法為梯度裁剪非線性激活函數(shù)和批量歸一化等,梯度問題雖然解決,但更為嚴(yán)數(shù)加深導(dǎo)致的網(wǎng)絡(luò)性能退化,即雖然網(wǎng)絡(luò)越來越深,卻越來越難信息。用殘差的思想設(shè)計(jì)網(wǎng)絡(luò)來解決退化問題,同時(shí)也解決了梯性能大大提高。殘差塊結(jié)構(gòu)如圖 3-2 所示。
本文編號(hào):3375942
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3375942.html
最近更新
教材專著