基于卷積神經(jīng)網(wǎng)絡(luò)的乳腺癌病理圖像分類研究
發(fā)布時間:2021-10-01 23:07
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)模型具有非常出色的學習能力,它將圖像數(shù)據(jù)直接輸入,在無需人工對圖像進行預處理和額外的特征抽取等復雜操作的同時以其特有的細粒度特征提取方式可以對圖像進行細致的處理,與傳統(tǒng)的機器學習算法相比,CNN在圖像分類、圖像分割和目標檢測等研究領(lǐng)域取得了很好的成績。近年來,CNN因其可以從醫(yī)學圖像中自動學習提取隱含的疾病診斷特征,使許多研究者將它應(yīng)用于醫(yī)學圖像分析研究。乳腺癌組織病理圖像本身比較復雜,具有廣泛的異質(zhì)性,當前使用的有關(guān)圖像自動分類的方法對高分辨率圖像處理具有局限性的不足使得最終的分類效果不理想,因此對細胞形態(tài)特征的準確評估仍然是一大難題。針對以上問題,本文設(shè)計了兩種基于卷積神經(jīng)網(wǎng)絡(luò)的乳腺癌病理圖像分類模型,主要研究內(nèi)容如下:(1)為了使網(wǎng)絡(luò)性能更加完美以及提高模型的特征提取能力,當前CNN向?qū)訑?shù)更深的方向發(fā)展,然而這一過程會導致參數(shù)數(shù)量增加、模型訓練過程更加復雜,容易出現(xiàn)過擬合的風險。針對這一問題,本文設(shè)計了一種新的小型壓縮-激勵-殘差(the Small Squeeze-and-Excitation R...
【文章來源】:西北師范大學甘肅省
【文章頁數(shù)】:54 頁
【學位級別】:碩士
【部分圖文】:
SE-ResNet模塊架構(gòu)
西北師范大學碩士學位論文14型壓縮-激勵-殘差模塊(SmallSE-ResNet,SSER),它包括兩個連續(xù)的1×3和3×1的卷積,在卷積之前帶有批量正則化和ReLU:conv1×3-conv3×1-conv1×3-conv3×1-SEblock(圖3-1.c)。在僅考慮卷積層參數(shù)的情況下,通過下面的公式來計算一個卷積層參數(shù)的總數(shù)量:()=×××(3-1)其中××表示卷積核的大小,K表示卷積核的數(shù)量。計算圖3-1中所示的三個模型的參數(shù)數(shù)量如下所示:()=(64×3×3×64)×2=18×642(3-2)()=256×1×1×64+64×3×3×64+64×1×1×256=17×642(3-3)()=(64×1×3×64)×2+(64×3×1×64)×2=12×642(3-4)通過上面的計算可知,與basicSE-ResNet模塊和bottleneckSE-ResNet模塊相比,SSER模塊的參數(shù)數(shù)量減少了約29.4%至33.3%。3.1.2乳腺癌組織病理學圖像分類網(wǎng)絡(luò)圖3-2用于乳腺癌組織病理學圖像良性和惡性分類的BHCNet-3架構(gòu)本章設(shè)計了一種新的名為乳腺癌組織病理學圖像分類網(wǎng)絡(luò)(thebreastcancerhistopathologyimageclassificationnetworks,BHCNet)的CNN架構(gòu),使用小型SE-ResNet模塊對乳腺癌組織病理學圖像進行分類。BHCNet由一個普通卷積層,三個SE-ResNet塊及一個全連接層構(gòu)成,其中每個SE-ResNet塊由N個小型SE-ResNet塊堆疊,在本章表示為BHCNet-N,當N=3時,BHCNet架構(gòu)如圖3-2所示,BHCNet-3模型參數(shù)數(shù)量為198k,模型大小僅為2.1Mb。
西北師范大學碩士學位論文16圖3-3不同的α和β下的高斯誤差調(diào)度器曲線當學習率接近零時,CNN權(quán)重的更新由噪聲主導,這可能會使后期訓練中測試集的準確率出現(xiàn)波動或者下降,因此在后面的周期不能將學習率設(shè)置為0。在設(shè)置高斯誤差調(diào)度器的參數(shù)時首先確保學習率不接近0,其次要求不需要非常仔細地微調(diào)。在本章中,將設(shè)置為步伐調(diào)度器的最小學習率,設(shè)置為最大學習率。高斯誤差調(diào)度器可以很容易地與SGD和優(yōu)化算法相結(jié)合,采用Nesterov動量SGD的高斯誤差調(diào)度器算法如算法1所示.算法1帶Nesterov動量SGD的高斯誤差調(diào)度器輸入:最大學習率lr,最小學習率,高斯誤差調(diào)度器參數(shù)α和β,動量參數(shù)m。輸入:初始CNN參數(shù)θ,初始向量v,初始周期E。1.fore=1toEdo2.從訓練集中抽取一個有m個樣例的小批次{(1),…,()},對應(yīng)標簽為y(i)。3.臨時的更新:←+4.計算梯度(在臨時點):←1∑((();),())5.計算學習率:=+2(1(()+))6.計算向量更新:←7.參數(shù)更新:←+8.endfor3.2實驗結(jié)果分析3.2.1在Cifar數(shù)據(jù)集上的性能分析(1)SSER模塊性能分析
【參考文獻】:
期刊論文
[1]樣本遷移支持下的遙感影像自動分類方法[J]. 林聰,李二珠,杜培軍. 測繪通報. 2018(04)
[2]醫(yī)學圖像分析深度學習方法研究與挑戰(zhàn)[J]. 田娟秀,劉國才,谷珊珊,鞠忠建,劉勁光,顧冬冬. 自動化學報. 2018(03)
[3]基于跨連卷積神經(jīng)網(wǎng)絡(luò)的性別分類模型[J]. 張婷,李玉鑑,胡海鶴,張亞紅. 自動化學報. 2016(06)
[4]語義關(guān)系相似度計算中的數(shù)據(jù)標準化方法比較[J]. 王正鵬,謝志鵬,邱培超. 計算機工程. 2012(10)
碩士論文
[1]基于稀疏編碼的多特征視頻異常事件檢測[D]. 唐鐘洋.廣東工業(yè)大學 2019
[2]基于深度學習的人臉識別技術(shù)及其在智能小區(qū)中的應(yīng)用[D]. 藍振潘.華南理工大學 2017
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像特征提取算法與圖像分類問題研究[D]. 司寧博.蘭州大學 2017
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的大規(guī)模人臉聚類[D]. 申小敏.廣東工業(yè)大學 2016
本文編號:3417513
【文章來源】:西北師范大學甘肅省
【文章頁數(shù)】:54 頁
【學位級別】:碩士
【部分圖文】:
SE-ResNet模塊架構(gòu)
西北師范大學碩士學位論文14型壓縮-激勵-殘差模塊(SmallSE-ResNet,SSER),它包括兩個連續(xù)的1×3和3×1的卷積,在卷積之前帶有批量正則化和ReLU:conv1×3-conv3×1-conv1×3-conv3×1-SEblock(圖3-1.c)。在僅考慮卷積層參數(shù)的情況下,通過下面的公式來計算一個卷積層參數(shù)的總數(shù)量:()=×××(3-1)其中××表示卷積核的大小,K表示卷積核的數(shù)量。計算圖3-1中所示的三個模型的參數(shù)數(shù)量如下所示:()=(64×3×3×64)×2=18×642(3-2)()=256×1×1×64+64×3×3×64+64×1×1×256=17×642(3-3)()=(64×1×3×64)×2+(64×3×1×64)×2=12×642(3-4)通過上面的計算可知,與basicSE-ResNet模塊和bottleneckSE-ResNet模塊相比,SSER模塊的參數(shù)數(shù)量減少了約29.4%至33.3%。3.1.2乳腺癌組織病理學圖像分類網(wǎng)絡(luò)圖3-2用于乳腺癌組織病理學圖像良性和惡性分類的BHCNet-3架構(gòu)本章設(shè)計了一種新的名為乳腺癌組織病理學圖像分類網(wǎng)絡(luò)(thebreastcancerhistopathologyimageclassificationnetworks,BHCNet)的CNN架構(gòu),使用小型SE-ResNet模塊對乳腺癌組織病理學圖像進行分類。BHCNet由一個普通卷積層,三個SE-ResNet塊及一個全連接層構(gòu)成,其中每個SE-ResNet塊由N個小型SE-ResNet塊堆疊,在本章表示為BHCNet-N,當N=3時,BHCNet架構(gòu)如圖3-2所示,BHCNet-3模型參數(shù)數(shù)量為198k,模型大小僅為2.1Mb。
西北師范大學碩士學位論文16圖3-3不同的α和β下的高斯誤差調(diào)度器曲線當學習率接近零時,CNN權(quán)重的更新由噪聲主導,這可能會使后期訓練中測試集的準確率出現(xiàn)波動或者下降,因此在后面的周期不能將學習率設(shè)置為0。在設(shè)置高斯誤差調(diào)度器的參數(shù)時首先確保學習率不接近0,其次要求不需要非常仔細地微調(diào)。在本章中,將設(shè)置為步伐調(diào)度器的最小學習率,設(shè)置為最大學習率。高斯誤差調(diào)度器可以很容易地與SGD和優(yōu)化算法相結(jié)合,采用Nesterov動量SGD的高斯誤差調(diào)度器算法如算法1所示.算法1帶Nesterov動量SGD的高斯誤差調(diào)度器輸入:最大學習率lr,最小學習率,高斯誤差調(diào)度器參數(shù)α和β,動量參數(shù)m。輸入:初始CNN參數(shù)θ,初始向量v,初始周期E。1.fore=1toEdo2.從訓練集中抽取一個有m個樣例的小批次{(1),…,()},對應(yīng)標簽為y(i)。3.臨時的更新:←+4.計算梯度(在臨時點):←1∑((();),())5.計算學習率:=+2(1(()+))6.計算向量更新:←7.參數(shù)更新:←+8.endfor3.2實驗結(jié)果分析3.2.1在Cifar數(shù)據(jù)集上的性能分析(1)SSER模塊性能分析
【參考文獻】:
期刊論文
[1]樣本遷移支持下的遙感影像自動分類方法[J]. 林聰,李二珠,杜培軍. 測繪通報. 2018(04)
[2]醫(yī)學圖像分析深度學習方法研究與挑戰(zhàn)[J]. 田娟秀,劉國才,谷珊珊,鞠忠建,劉勁光,顧冬冬. 自動化學報. 2018(03)
[3]基于跨連卷積神經(jīng)網(wǎng)絡(luò)的性別分類模型[J]. 張婷,李玉鑑,胡海鶴,張亞紅. 自動化學報. 2016(06)
[4]語義關(guān)系相似度計算中的數(shù)據(jù)標準化方法比較[J]. 王正鵬,謝志鵬,邱培超. 計算機工程. 2012(10)
碩士論文
[1]基于稀疏編碼的多特征視頻異常事件檢測[D]. 唐鐘洋.廣東工業(yè)大學 2019
[2]基于深度學習的人臉識別技術(shù)及其在智能小區(qū)中的應(yīng)用[D]. 藍振潘.華南理工大學 2017
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像特征提取算法與圖像分類問題研究[D]. 司寧博.蘭州大學 2017
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的大規(guī)模人臉聚類[D]. 申小敏.廣東工業(yè)大學 2016
本文編號:3417513
本文鏈接:http://sikaile.net/shoufeilunwen/mpalunwen/3417513.html
最近更新
教材專著