天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于深度神經(jīng)網(wǎng)絡(luò)的宮頸癌輔助篩查研究

發(fā)布時(shí)間:2021-11-06 07:06
  宮頸癌是最常見的女性惡性腫瘤之一。相關(guān)醫(yī)學(xué)研究表明,可以通過早期病變篩查降低宮頸癌發(fā)病率和死亡率,因此,癌前病變的篩查成為宮頸癌預(yù)防的關(guān)鍵。陰道鏡檢查是宮頸病變篩查的重要醫(yī)療手段之一,由于其便利性和良好的準(zhǔn)確性,成為目前世界范圍內(nèi)必不可少的診斷方法。然而,傳統(tǒng)的人工閱片方式容易造成病變?cè)\斷的漏診、誤診以及低效等問題,且不同醫(yī)師的不同臨床經(jīng)驗(yàn)易導(dǎo)致診斷差異性,從而降低篩查的效率。近年來深度學(xué)習(xí)在醫(yī)學(xué)圖像分析領(lǐng)域突飛猛進(jìn),在很多相關(guān)的圖像分類以及圖像檢測(cè)任務(wù)中取得了優(yōu)異的效果。本文在深度神經(jīng)網(wǎng)絡(luò)的研究基礎(chǔ)上,針對(duì)陰道鏡圖像的宮頸癌前病變分類診斷任務(wù)進(jìn)行了相關(guān)的研究,主要的研究?jī)?nèi)容如下:提出一種應(yīng)用圖像語義分割原理的宮頸病變檢測(cè)與診斷方法,針對(duì)宮頸病變的CIN1+診斷建立了基于U-net的全卷積深度神經(jīng)網(wǎng)絡(luò)模型。該模型適當(dāng)加深了網(wǎng)絡(luò)深度,以編碼器-解碼器的形式實(shí)現(xiàn)了病灶區(qū)域的分割與檢測(cè),最后通過分割結(jié)果的數(shù)字圖像后處理進(jìn)一步實(shí)現(xiàn)了病變的判斷。測(cè)試集的診斷結(jié)果表明,該方法可得到同高級(jí)醫(yī)師相當(dāng)?shù)脑\斷準(zhǔn)確性并大大提升了診斷效率。提出一種基于預(yù)訓(xùn)練密集連接網(wǎng)絡(luò)的宮頸病變圖像分類方法,該方法利用遷移學(xué)... 

【文章來源】:華僑大學(xué)福建省

【文章頁(yè)數(shù)】:84 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度神經(jīng)網(wǎng)絡(luò)的宮頸癌輔助篩查研究


本文的研究技術(shù)路線

示意圖,卷積,示意圖,卷積核


第2章深度神經(jīng)網(wǎng)絡(luò)相關(guān)理論概述11成CNN的基本模塊,最終由全連接層得到最后的輸出結(jié)果。以下對(duì)每個(gè)部分進(jìn)行詳細(xì)介紹。2.2.2卷積層卷積層由多個(gè)卷積核組成,每層的特征圖(Featuremap)由多個(gè)卷積核的計(jì)算結(jié)果組合而成。卷積核是一個(gè)權(quán)值矩陣(在二維數(shù)據(jù)中一般為3*3或5*5)[41,49]。圖2.2所示為CNN卷積層和池化層結(jié)構(gòu)示意圖,其中,以卷積輸入層(頂層)、卷積輸出層(中間層)和池化輸出層(底層)來簡(jiǎn)易的表示之間的關(guān)系。圖2.2卷積層以及池化層的結(jié)構(gòu)示意圖由圖2.2可看出卷積層的神經(jīng)元通過一組權(quán)值被連接到下一層特征圖的局部區(qū)域,然后通過該局部加權(quán)和一個(gè)非線性函數(shù)即可獲得卷積層中每個(gè)神經(jīng)元的輸出值,該過程中實(shí)現(xiàn)了權(quán)值共享,如圖2.2所示,同一種顏色的箭頭中有權(quán)值共享。通過權(quán)值共享可以減小模型復(fù)雜度,使得網(wǎng)絡(luò)更易于訓(xùn)練。以圖2.2為例,卷積核在上一層的滑動(dòng)步長(zhǎng)為,卷積核大小為1*3。CNN中每一個(gè)卷積層的每個(gè)輸出特征圖的大。瓷窠(jīng)元的個(gè)數(shù))滿足公式(2.2)的關(guān)系[50](2.2)

函數(shù)曲線,函數(shù)曲線,卷積核


華僑大學(xué)碩士學(xué)位論文12圖2.3Relu函數(shù)曲線(a),以及tanh函數(shù)曲線(b)其中:表示每一個(gè)輸入特征圖的大;為卷積核的大;表示卷積核滑動(dòng)步長(zhǎng)。每個(gè)卷積層可訓(xùn)練參數(shù)數(shù)目滿足式(2.3)(2.3)其中:為卷積層輸出特征圖數(shù);為輸入特征圖數(shù);表示偏置。在卷積層中每個(gè)特征圖的輸入與輸出也都滿足神經(jīng)元輸入與輸出的關(guān)系,如式(2.1)。在得到卷積層輸出結(jié)果后,為了增加模型的非線性表達(dá)能力,一般采用非線性激活函數(shù)作為特征的非線性表達(dá)方法。激活函數(shù)目前一般采用,不飽和非線性函數(shù)(non-saturatingnonlinearity)能夠解決梯度爆炸或梯度消失問題,同時(shí)也能夠加快收斂速度[51,52]。在目前的CNN結(jié)構(gòu)中常用的激活函數(shù)為Relu函數(shù)。Relu函數(shù)的計(jì)算公式如下[6]max(2.4)圖2.3中(a)為Relu函數(shù)曲線,(b)為tanh函數(shù)曲線。對(duì)于Relu而言,如果輸入大于0,則輸出與輸入相等,否則輸出為0。從圖2.3(a)可以看出,使用Relu函數(shù),輸出不會(huì)隨著輸入的逐漸增加而趨于飽和,相對(duì)比而言,tanh函數(shù)為飽和線性函數(shù),容易造成梯度消失等問題,而且需要進(jìn)行巨大的計(jì)算資源。相關(guān)文獻(xiàn)[53~55]對(duì)CNN結(jié)構(gòu)研究表明,在CNN結(jié)構(gòu)中,深度越深、卷積核個(gè)數(shù)越多,網(wǎng)絡(luò)能夠表示的特征空間也就越大,網(wǎng)絡(luò)學(xué)習(xí)能力也越強(qiáng),然而也會(huì)使網(wǎng)絡(luò)的計(jì)算更復(fù)雜,極易出現(xiàn)過擬合的現(xiàn)象。為了減輕過擬合的發(fā)生,主流的方法主要從網(wǎng)絡(luò)結(jié)構(gòu)層面、優(yōu)化算法以及訓(xùn)練數(shù)據(jù)層面進(jìn)行優(yōu)化。對(duì)于實(shí)際應(yīng)用場(chǎng)景,應(yīng)適當(dāng)選取網(wǎng)絡(luò)深度、卷積核個(gè)數(shù)、卷積核的大小及卷積時(shí)滑


本文編號(hào):3479409

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3479409.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶35ab0***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com