電子顯微鏡下暗場原子圖片的重建和識別
發(fā)布時間:2021-01-19 07:32
在材料科學(xué)領(lǐng)域,暗場原子圖像的成像質(zhì)量非常重要,是材料科學(xué)家作為科研成果的重要可視化依據(jù)。當(dāng)材料科學(xué)家需要證明自己所研制的某種材料具有優(yōu)良的均勻性時,獲取這種材料表面的原子的排列和分布就成為了必不可少的條件,而只有足夠清晰的暗場原子圖像和足夠準(zhǔn)確的原子中心坐標(biāo)及半徑大小,才能作為材料科學(xué)家計(jì)算的暗場原子排列及分布充分而有力的證據(jù)。近些年來,隨著深度學(xué)習(xí)技術(shù)的發(fā)展,圖像處理和識別技術(shù)逐漸應(yīng)用到越來越多的領(lǐng)域當(dāng)中,特別是在材料影像、醫(yī)學(xué)圖像、衛(wèi)星地圖、安防領(lǐng)域等方面發(fā)揮著重要作用。利用掃描透射電子顯微鏡獲取的暗場原子圖像由于實(shí)驗(yàn)環(huán)境、材料質(zhì)量和系統(tǒng)自身成像質(zhì)量等問題,難以滿足材料科學(xué)領(lǐng)域研究學(xué)者的科研需求。而傳統(tǒng)的圖像處理手段無法有效的提高暗場原子圖像的信噪比、改善圖像質(zhì)量和對圖像內(nèi)容進(jìn)行識別分析研究,因此利用深度學(xué)習(xí)技術(shù)對暗場原子圖像進(jìn)行重建和識別成為了解決圖像質(zhì)量問題的新手段。本文主要解決了兩方面問題,分別是暗場原子圖像重建和識別。一、在重建方面,針對提升暗場原子圖像成像質(zhì)量的問題,本文提出了基于生成式對抗網(wǎng)絡(luò)的暗場原子圖像重建模型,針對生成式對抗網(wǎng)絡(luò)難訓(xùn)練的問題,首先設(shè)計(jì)了零中心推土...
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:73 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-2深度信念網(wǎng)絡(luò)[18]??同受限玻爾茲曼機(jī)一樣,深度信念網(wǎng)絡(luò)的每個潛變量都是二值的,而每個可??
3.變分自編碼器??介紹變分自編碼器(Variationa丨auto-encoder,?VAE)?[19]之前首先對自編碼器??進(jìn)行簡要的介紹。自編碼器的結(jié)構(gòu)如圖2-3所示。通過對輸入的x進(jìn)行編碼的到??低維向量的特征z,再利用解碼器從z解壓重構(gòu)出;c',使其更接近輸入變量;c。自??編碼器在編碼過程中選擇性的拋棄榮譽(yù)數(shù)據(jù),將盡可能多的有效潛變量包含到編??碼中,解碼器則需要從這些編碼中盡可能的學(xué)習(xí)重構(gòu)輸入圖像。??x'l?x'2?x'3??(旮)-Decoder??眷(I?卜?Encoder??Xl?X2?x3??圖2-3自編碼器結(jié)構(gòu)圖[19]??然而自編碼器由于自身將輸入轉(zhuǎn)換為編碼的過程中表達(dá)并不是連續(xù)的,因此??除了在降噪這類場景以外,應(yīng)用并不多。而變分自編碼器則不同,它的隱空間被??設(shè)計(jì)為連續(xù)的分布,使他能夠進(jìn)行隨機(jī)采樣和插值,因此在生成模型領(lǐng)域效果卓??著。變分自編碼器中編碼器輸出不再是n維編碼潛變量,而是兩個n維矢量,一??個是均值矢量//
中———一/??7?9??(|?Z??圖2-4簡化變分自編碼器??如圖2-4所示,我們只能觀測到數(shù)據(jù)X,想要推斷z就需要計(jì)算p(z|x:),利用??分布做近似,其中z服從分布(?〇)利用KL散度計(jì)算兩個分布的差值公式??如下:??D[Q(z)\\P(z\X)]?=?Ex^[logQdx)-logP(ix\X)]?(2-5)??因此變分自編碼器的損失函數(shù)寫為公式2-6,其中第一部分表示重構(gòu)損失,??用期望值表達(dá)從分布里的采樣,第二部分為相對熵,即P〇|;〇與的散度值。??L(0,0;x,z)?=?EP(p(zM[logQe(x\z)]?-?DKL(PHzm\\Q(z))?(2-6)??2.3圖像識別理論基礎(chǔ)??2.3.1卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展??LeCun于1998年提出了?LeNet[M]網(wǎng)絡(luò),從此推動深度學(xué)習(xí)領(lǐng)域飛速發(fā)展。??LeNet5網(wǎng)絡(luò)首次實(shí)現(xiàn)了卷積神經(jīng)網(wǎng)絡(luò)局部連接、下采樣、權(quán)值共享等特性,在降??低了網(wǎng)絡(luò)參數(shù)量的同時提高了模型的性能
本文編號:2986597
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:73 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-2深度信念網(wǎng)絡(luò)[18]??同受限玻爾茲曼機(jī)一樣,深度信念網(wǎng)絡(luò)的每個潛變量都是二值的,而每個可??
3.變分自編碼器??介紹變分自編碼器(Variationa丨auto-encoder,?VAE)?[19]之前首先對自編碼器??進(jìn)行簡要的介紹。自編碼器的結(jié)構(gòu)如圖2-3所示。通過對輸入的x進(jìn)行編碼的到??低維向量的特征z,再利用解碼器從z解壓重構(gòu)出;c',使其更接近輸入變量;c。自??編碼器在編碼過程中選擇性的拋棄榮譽(yù)數(shù)據(jù),將盡可能多的有效潛變量包含到編??碼中,解碼器則需要從這些編碼中盡可能的學(xué)習(xí)重構(gòu)輸入圖像。??x'l?x'2?x'3??(旮)-Decoder??眷(I?卜?Encoder??Xl?X2?x3??圖2-3自編碼器結(jié)構(gòu)圖[19]??然而自編碼器由于自身將輸入轉(zhuǎn)換為編碼的過程中表達(dá)并不是連續(xù)的,因此??除了在降噪這類場景以外,應(yīng)用并不多。而變分自編碼器則不同,它的隱空間被??設(shè)計(jì)為連續(xù)的分布,使他能夠進(jìn)行隨機(jī)采樣和插值,因此在生成模型領(lǐng)域效果卓??著。變分自編碼器中編碼器輸出不再是n維編碼潛變量,而是兩個n維矢量,一??個是均值矢量//
中———一/??7?9??(|?Z??圖2-4簡化變分自編碼器??如圖2-4所示,我們只能觀測到數(shù)據(jù)X,想要推斷z就需要計(jì)算p(z|x:),利用??分布做近似,其中z服從分布(?〇)利用KL散度計(jì)算兩個分布的差值公式??如下:??D[Q(z)\\P(z\X)]?=?Ex^[logQdx)-logP(ix\X)]?(2-5)??因此變分自編碼器的損失函數(shù)寫為公式2-6,其中第一部分表示重構(gòu)損失,??用期望值表達(dá)從分布里的采樣,第二部分為相對熵,即P〇|;〇與的散度值。??L(0,0;x,z)?=?EP(p(zM[logQe(x\z)]?-?DKL(PHzm\\Q(z))?(2-6)??2.3圖像識別理論基礎(chǔ)??2.3.1卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展??LeCun于1998年提出了?LeNet[M]網(wǎng)絡(luò),從此推動深度學(xué)習(xí)領(lǐng)域飛速發(fā)展。??LeNet5網(wǎng)絡(luò)首次實(shí)現(xiàn)了卷積神經(jīng)網(wǎng)絡(luò)局部連接、下采樣、權(quán)值共享等特性,在降??低了網(wǎng)絡(luò)參數(shù)量的同時提高了模型的性能
本文編號:2986597
本文鏈接:http://sikaile.net/kejilunwen/dianzigongchenglunwen/2986597.html
最近更新
教材專著