基于深度學(xué)習(xí)的離軸菲涅耳數(shù)字全息非線性重構(gòu)
發(fā)布時(shí)間:2021-08-17 03:10
針對(duì)離軸菲涅耳數(shù)字全息圖,提出基于深度學(xué)習(xí)的單幅數(shù)字全息非線性重構(gòu)方法 .采用經(jīng)典的菲涅耳衍射積分模擬數(shù)字全息成像以供給網(wǎng)絡(luò)訓(xùn)練所需樣本,利用深度卷積殘差神經(jīng)網(wǎng)絡(luò)通過(guò)學(xué)習(xí)數(shù)字全息圖與相關(guān)物像之間的非線性數(shù)學(xué)映射關(guān)系實(shí)現(xiàn)全息圖的物像重構(gòu).數(shù)值模擬表明,與傳統(tǒng)的頻率濾波和四步相移技術(shù)實(shí)現(xiàn)菲涅耳數(shù)字全息重構(gòu)相比,本文提出的方法可直接消除零級(jí)像及孿生像,無(wú)需條紋物項(xiàng)抽取預(yù)處理步驟,且重構(gòu)的物像具有較高的質(zhì)量,針對(duì)相同記錄參考光下不同衍射距離所生成的測(cè)試集亦具有較強(qiáng)的穩(wěn)健性.
【文章來(lái)源】:光子學(xué)報(bào). 2020,49(07)北大核心EICSCD
【文章頁(yè)數(shù)】:12 頁(yè)
【部分圖文】:
離軸菲涅耳數(shù)字全息圖記錄示意圖
借鑒DNN在解決相干光場(chǎng)成像中的反演問(wèn)題等方面的應(yīng)用實(shí)例,提出基于深度學(xué)習(xí)的單幅離軸菲涅耳數(shù)字全息圖非線性重構(gòu)方法.物像O(x0,y0)通過(guò)采用T-FFT算法的離軸菲涅耳數(shù)字全息得到數(shù)字全息圖光強(qiáng)I(x,y).ResNet用于訓(xùn)練數(shù)字全息圖光強(qiáng)I(x,y)和相關(guān)的訓(xùn)練物像集O(x0,y0)之間的非線性數(shù)學(xué)映射關(guān)系.最后,將訓(xùn)練集中未使用的測(cè)試集數(shù)字全息圖光強(qiáng)應(yīng)用到已經(jīng)訓(xùn)練好的ResNet模型實(shí)現(xiàn)重構(gòu)物像O?(x0,y0).基于深度學(xué)習(xí)的離軸菲涅耳數(shù)字全息圖重構(gòu)過(guò)程如圖2所示.根據(jù)式(2),物像O(x0,y0)轉(zhuǎn)換到全息記錄面上的光強(qiáng)I(x,y)可簡(jiǎn)化為
設(shè)計(jì)和調(diào)整ResNet的模型結(jié)構(gòu)時(shí),充分考慮神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)離軸菲涅耳數(shù)字全息圖I(x,y)與相關(guān)的物像O(x0,y0)的特征之間的關(guān)系,然后采用單個(gè)測(cè)試集數(shù)字全息圖I(x,y)重構(gòu)物像O?(x0,y0).ResNet結(jié)構(gòu)模型如圖3所示,輸入層是光強(qiáng)I(x,y);四個(gè)下采樣卷積殘差塊“C”用于提取圖像特征;四個(gè)上采樣卷積殘差塊“D”用于重構(gòu)圖像特征;四個(gè)跳躍卷積塊“S”可以防止停滯來(lái)優(yōu)化深層,確保ResNet學(xué)習(xí)新特征;網(wǎng)絡(luò)末端的兩個(gè)卷積殘差塊“R”用于微調(diào)重構(gòu).ResNet模型中的各模塊結(jié)構(gòu)如圖4所示.“Conv(3,2)”表示一個(gè)濾波器大小3×3且步長(zhǎng)為2的二維卷積層,完成卷積后輸出圖像像素的大小變?yōu)檩斎氲囊话;“DeConv(3,2)”表示一個(gè)濾波器大小3×3和步長(zhǎng)為2的轉(zhuǎn)置二維卷積層,采用padding操作完成轉(zhuǎn)置卷積后輸出圖像像素的大小變?yōu)檩斎氲?倍;“Conv(3,1)”表示一個(gè)濾波器大小3×3且步長(zhǎng)為1的二維卷積層,完成卷積后輸出圖像像素的大小與輸入的相同;“Batch Norm”表示批量歸一化層[24],用于最大限度的保證訓(xùn)練時(shí)分布統(tǒng)一,優(yōu)化對(duì)權(quán)重的調(diào)整;“ReLU”表示線性整流層[25],經(jīng)過(guò)其處理后的數(shù)據(jù)會(huì)獲得更好的稀疏性,并且可以避免梯度消失問(wèn)題,加快網(wǎng)絡(luò)收斂速度.“Batch Norm”和“ReLU”適用于本文ResNet中的所有模塊,“ReLU”可表為ReLU(x)=max(0,x).
【參考文獻(xiàn)】:
期刊論文
[1]太赫茲線陣快速掃描成像[J]. 王彪,王新柯,俞躍,張巖. 中國(guó)激光. 2019(06)
本文編號(hào):3346938
【文章來(lái)源】:光子學(xué)報(bào). 2020,49(07)北大核心EICSCD
【文章頁(yè)數(shù)】:12 頁(yè)
【部分圖文】:
離軸菲涅耳數(shù)字全息圖記錄示意圖
借鑒DNN在解決相干光場(chǎng)成像中的反演問(wèn)題等方面的應(yīng)用實(shí)例,提出基于深度學(xué)習(xí)的單幅離軸菲涅耳數(shù)字全息圖非線性重構(gòu)方法.物像O(x0,y0)通過(guò)采用T-FFT算法的離軸菲涅耳數(shù)字全息得到數(shù)字全息圖光強(qiáng)I(x,y).ResNet用于訓(xùn)練數(shù)字全息圖光強(qiáng)I(x,y)和相關(guān)的訓(xùn)練物像集O(x0,y0)之間的非線性數(shù)學(xué)映射關(guān)系.最后,將訓(xùn)練集中未使用的測(cè)試集數(shù)字全息圖光強(qiáng)應(yīng)用到已經(jīng)訓(xùn)練好的ResNet模型實(shí)現(xiàn)重構(gòu)物像O?(x0,y0).基于深度學(xué)習(xí)的離軸菲涅耳數(shù)字全息圖重構(gòu)過(guò)程如圖2所示.根據(jù)式(2),物像O(x0,y0)轉(zhuǎn)換到全息記錄面上的光強(qiáng)I(x,y)可簡(jiǎn)化為
設(shè)計(jì)和調(diào)整ResNet的模型結(jié)構(gòu)時(shí),充分考慮神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)離軸菲涅耳數(shù)字全息圖I(x,y)與相關(guān)的物像O(x0,y0)的特征之間的關(guān)系,然后采用單個(gè)測(cè)試集數(shù)字全息圖I(x,y)重構(gòu)物像O?(x0,y0).ResNet結(jié)構(gòu)模型如圖3所示,輸入層是光強(qiáng)I(x,y);四個(gè)下采樣卷積殘差塊“C”用于提取圖像特征;四個(gè)上采樣卷積殘差塊“D”用于重構(gòu)圖像特征;四個(gè)跳躍卷積塊“S”可以防止停滯來(lái)優(yōu)化深層,確保ResNet學(xué)習(xí)新特征;網(wǎng)絡(luò)末端的兩個(gè)卷積殘差塊“R”用于微調(diào)重構(gòu).ResNet模型中的各模塊結(jié)構(gòu)如圖4所示.“Conv(3,2)”表示一個(gè)濾波器大小3×3且步長(zhǎng)為2的二維卷積層,完成卷積后輸出圖像像素的大小變?yōu)檩斎氲囊话;“DeConv(3,2)”表示一個(gè)濾波器大小3×3和步長(zhǎng)為2的轉(zhuǎn)置二維卷積層,采用padding操作完成轉(zhuǎn)置卷積后輸出圖像像素的大小變?yōu)檩斎氲?倍;“Conv(3,1)”表示一個(gè)濾波器大小3×3且步長(zhǎng)為1的二維卷積層,完成卷積后輸出圖像像素的大小與輸入的相同;“Batch Norm”表示批量歸一化層[24],用于最大限度的保證訓(xùn)練時(shí)分布統(tǒng)一,優(yōu)化對(duì)權(quán)重的調(diào)整;“ReLU”表示線性整流層[25],經(jīng)過(guò)其處理后的數(shù)據(jù)會(huì)獲得更好的稀疏性,并且可以避免梯度消失問(wèn)題,加快網(wǎng)絡(luò)收斂速度.“Batch Norm”和“ReLU”適用于本文ResNet中的所有模塊,“ReLU”可表為ReLU(x)=max(0,x).
【參考文獻(xiàn)】:
期刊論文
[1]太赫茲線陣快速掃描成像[J]. 王彪,王新柯,俞躍,張巖. 中國(guó)激光. 2019(06)
本文編號(hào):3346938
本文鏈接:http://sikaile.net/kejilunwen/dianzigongchenglunwen/3346938.html
最近更新
教材專著