基于深度神經(jīng)網(wǎng)絡(luò)的宮頸癌輔助篩查研究
發(fā)布時(shí)間:2021-11-06 07:06
宮頸癌是最常見的女性惡性腫瘤之一。相關(guān)醫(yī)學(xué)研究表明,可以通過早期病變篩查降低宮頸癌發(fā)病率和死亡率,因此,癌前病變的篩查成為宮頸癌預(yù)防的關(guān)鍵。陰道鏡檢查是宮頸病變篩查的重要醫(yī)療手段之一,由于其便利性和良好的準(zhǔn)確性,成為目前世界范圍內(nèi)必不可少的診斷方法。然而,傳統(tǒng)的人工閱片方式容易造成病變?cè)\斷的漏診、誤診以及低效等問題,且不同醫(yī)師的不同臨床經(jīng)驗(yàn)易導(dǎo)致診斷差異性,從而降低篩查的效率。近年來深度學(xué)習(xí)在醫(yī)學(xué)圖像分析領(lǐng)域突飛猛進(jìn),在很多相關(guān)的圖像分類以及圖像檢測(cè)任務(wù)中取得了優(yōu)異的效果。本文在深度神經(jīng)網(wǎng)絡(luò)的研究基礎(chǔ)上,針對(duì)陰道鏡圖像的宮頸癌前病變分類診斷任務(wù)進(jìn)行了相關(guān)的研究,主要的研究?jī)?nèi)容如下:提出一種應(yīng)用圖像語義分割原理的宮頸病變檢測(cè)與診斷方法,針對(duì)宮頸病變的CIN1+診斷建立了基于U-net的全卷積深度神經(jīng)網(wǎng)絡(luò)模型。該模型適當(dāng)加深了網(wǎng)絡(luò)深度,以編碼器-解碼器的形式實(shí)現(xiàn)了病灶區(qū)域的分割與檢測(cè),最后通過分割結(jié)果的數(shù)字圖像后處理進(jìn)一步實(shí)現(xiàn)了病變的判斷。測(cè)試集的診斷結(jié)果表明,該方法可得到同高級(jí)醫(yī)師相當(dāng)?shù)脑\斷準(zhǔn)確性并大大提升了診斷效率。提出一種基于預(yù)訓(xùn)練密集連接網(wǎng)絡(luò)的宮頸病變圖像分類方法,該方法利用遷移學(xué)...
【文章來源】:華僑大學(xué)福建省
【文章頁(yè)數(shù)】:84 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
本文的研究技術(shù)路線
第2章深度神經(jīng)網(wǎng)絡(luò)相關(guān)理論概述11成CNN的基本模塊,最終由全連接層得到最后的輸出結(jié)果。以下對(duì)每個(gè)部分進(jìn)行詳細(xì)介紹。2.2.2卷積層卷積層由多個(gè)卷積核組成,每層的特征圖(Featuremap)由多個(gè)卷積核的計(jì)算結(jié)果組合而成。卷積核是一個(gè)權(quán)值矩陣(在二維數(shù)據(jù)中一般為3*3或5*5)[41,49]。圖2.2所示為CNN卷積層和池化層結(jié)構(gòu)示意圖,其中,以卷積輸入層(頂層)、卷積輸出層(中間層)和池化輸出層(底層)來簡(jiǎn)易的表示之間的關(guān)系。圖2.2卷積層以及池化層的結(jié)構(gòu)示意圖由圖2.2可看出卷積層的神經(jīng)元通過一組權(quán)值被連接到下一層特征圖的局部區(qū)域,然后通過該局部加權(quán)和一個(gè)非線性函數(shù)即可獲得卷積層中每個(gè)神經(jīng)元的輸出值,該過程中實(shí)現(xiàn)了權(quán)值共享,如圖2.2所示,同一種顏色的箭頭中有權(quán)值共享。通過權(quán)值共享可以減小模型復(fù)雜度,使得網(wǎng)絡(luò)更易于訓(xùn)練。以圖2.2為例,卷積核在上一層的滑動(dòng)步長(zhǎng)為,卷積核大小為1*3。CNN中每一個(gè)卷積層的每個(gè)輸出特征圖的大。瓷窠(jīng)元的個(gè)數(shù))滿足公式(2.2)的關(guān)系[50](2.2)
華僑大學(xué)碩士學(xué)位論文12圖2.3Relu函數(shù)曲線(a),以及tanh函數(shù)曲線(b)其中:表示每一個(gè)輸入特征圖的大;為卷積核的大;表示卷積核滑動(dòng)步長(zhǎng)。每個(gè)卷積層可訓(xùn)練參數(shù)數(shù)目滿足式(2.3)(2.3)其中:為卷積層輸出特征圖數(shù);為輸入特征圖數(shù);表示偏置。在卷積層中每個(gè)特征圖的輸入與輸出也都滿足神經(jīng)元輸入與輸出的關(guān)系,如式(2.1)。在得到卷積層輸出結(jié)果后,為了增加模型的非線性表達(dá)能力,一般采用非線性激活函數(shù)作為特征的非線性表達(dá)方法。激活函數(shù)目前一般采用,不飽和非線性函數(shù)(non-saturatingnonlinearity)能夠解決梯度爆炸或梯度消失問題,同時(shí)也能夠加快收斂速度[51,52]。在目前的CNN結(jié)構(gòu)中常用的激活函數(shù)為Relu函數(shù)。Relu函數(shù)的計(jì)算公式如下[6]max(2.4)圖2.3中(a)為Relu函數(shù)曲線,(b)為tanh函數(shù)曲線。對(duì)于Relu而言,如果輸入大于0,則輸出與輸入相等,否則輸出為0。從圖2.3(a)可以看出,使用Relu函數(shù),輸出不會(huì)隨著輸入的逐漸增加而趨于飽和,相對(duì)比而言,tanh函數(shù)為飽和線性函數(shù),容易造成梯度消失等問題,而且需要進(jìn)行巨大的計(jì)算資源。相關(guān)文獻(xiàn)[53~55]對(duì)CNN結(jié)構(gòu)研究表明,在CNN結(jié)構(gòu)中,深度越深、卷積核個(gè)數(shù)越多,網(wǎng)絡(luò)能夠表示的特征空間也就越大,網(wǎng)絡(luò)學(xué)習(xí)能力也越強(qiáng),然而也會(huì)使網(wǎng)絡(luò)的計(jì)算更復(fù)雜,極易出現(xiàn)過擬合的現(xiàn)象。為了減輕過擬合的發(fā)生,主流的方法主要從網(wǎng)絡(luò)結(jié)構(gòu)層面、優(yōu)化算法以及訓(xùn)練數(shù)據(jù)層面進(jìn)行優(yōu)化。對(duì)于實(shí)際應(yīng)用場(chǎng)景,應(yīng)適當(dāng)選取網(wǎng)絡(luò)深度、卷積核個(gè)數(shù)、卷積核的大小及卷積時(shí)滑
本文編號(hào):3479409
【文章來源】:華僑大學(xué)福建省
【文章頁(yè)數(shù)】:84 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
本文的研究技術(shù)路線
第2章深度神經(jīng)網(wǎng)絡(luò)相關(guān)理論概述11成CNN的基本模塊,最終由全連接層得到最后的輸出結(jié)果。以下對(duì)每個(gè)部分進(jìn)行詳細(xì)介紹。2.2.2卷積層卷積層由多個(gè)卷積核組成,每層的特征圖(Featuremap)由多個(gè)卷積核的計(jì)算結(jié)果組合而成。卷積核是一個(gè)權(quán)值矩陣(在二維數(shù)據(jù)中一般為3*3或5*5)[41,49]。圖2.2所示為CNN卷積層和池化層結(jié)構(gòu)示意圖,其中,以卷積輸入層(頂層)、卷積輸出層(中間層)和池化輸出層(底層)來簡(jiǎn)易的表示之間的關(guān)系。圖2.2卷積層以及池化層的結(jié)構(gòu)示意圖由圖2.2可看出卷積層的神經(jīng)元通過一組權(quán)值被連接到下一層特征圖的局部區(qū)域,然后通過該局部加權(quán)和一個(gè)非線性函數(shù)即可獲得卷積層中每個(gè)神經(jīng)元的輸出值,該過程中實(shí)現(xiàn)了權(quán)值共享,如圖2.2所示,同一種顏色的箭頭中有權(quán)值共享。通過權(quán)值共享可以減小模型復(fù)雜度,使得網(wǎng)絡(luò)更易于訓(xùn)練。以圖2.2為例,卷積核在上一層的滑動(dòng)步長(zhǎng)為,卷積核大小為1*3。CNN中每一個(gè)卷積層的每個(gè)輸出特征圖的大。瓷窠(jīng)元的個(gè)數(shù))滿足公式(2.2)的關(guān)系[50](2.2)
華僑大學(xué)碩士學(xué)位論文12圖2.3Relu函數(shù)曲線(a),以及tanh函數(shù)曲線(b)其中:表示每一個(gè)輸入特征圖的大;為卷積核的大;表示卷積核滑動(dòng)步長(zhǎng)。每個(gè)卷積層可訓(xùn)練參數(shù)數(shù)目滿足式(2.3)(2.3)其中:為卷積層輸出特征圖數(shù);為輸入特征圖數(shù);表示偏置。在卷積層中每個(gè)特征圖的輸入與輸出也都滿足神經(jīng)元輸入與輸出的關(guān)系,如式(2.1)。在得到卷積層輸出結(jié)果后,為了增加模型的非線性表達(dá)能力,一般采用非線性激活函數(shù)作為特征的非線性表達(dá)方法。激活函數(shù)目前一般采用,不飽和非線性函數(shù)(non-saturatingnonlinearity)能夠解決梯度爆炸或梯度消失問題,同時(shí)也能夠加快收斂速度[51,52]。在目前的CNN結(jié)構(gòu)中常用的激活函數(shù)為Relu函數(shù)。Relu函數(shù)的計(jì)算公式如下[6]max(2.4)圖2.3中(a)為Relu函數(shù)曲線,(b)為tanh函數(shù)曲線。對(duì)于Relu而言,如果輸入大于0,則輸出與輸入相等,否則輸出為0。從圖2.3(a)可以看出,使用Relu函數(shù),輸出不會(huì)隨著輸入的逐漸增加而趨于飽和,相對(duì)比而言,tanh函數(shù)為飽和線性函數(shù),容易造成梯度消失等問題,而且需要進(jìn)行巨大的計(jì)算資源。相關(guān)文獻(xiàn)[53~55]對(duì)CNN結(jié)構(gòu)研究表明,在CNN結(jié)構(gòu)中,深度越深、卷積核個(gè)數(shù)越多,網(wǎng)絡(luò)能夠表示的特征空間也就越大,網(wǎng)絡(luò)學(xué)習(xí)能力也越強(qiáng),然而也會(huì)使網(wǎng)絡(luò)的計(jì)算更復(fù)雜,極易出現(xiàn)過擬合的現(xiàn)象。為了減輕過擬合的發(fā)生,主流的方法主要從網(wǎng)絡(luò)結(jié)構(gòu)層面、優(yōu)化算法以及訓(xùn)練數(shù)據(jù)層面進(jìn)行優(yōu)化。對(duì)于實(shí)際應(yīng)用場(chǎng)景,應(yīng)適當(dāng)選取網(wǎng)絡(luò)深度、卷積核個(gè)數(shù)、卷積核的大小及卷積時(shí)滑
本文編號(hào):3479409
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3479409.html
最近更新
教材專著