深度學習在宮頸癌圖像識別中的應用研究
發(fā)布時間:2021-09-02 22:52
宮頸癌作為最常見的婦科惡性腫瘤,嚴重影響著廣大女性的健康。傳統(tǒng)的診斷方法是醫(yī)生通過對患者的宮頸細胞涂片、局部CT、病灶區(qū)MRI等影像資料的分析,結合臨床表現進行分析判斷。然而,這種方法容易受到醫(yī)生的臨床經驗、人為主觀判斷的影響,從而導致誤診或漏診的情況。近年來,隨著人工智能的飛速發(fā)展,新興的疾病輔助診斷應用已成為研究熱點之一;谌斯ぶ悄艿募膊≥o助診斷主要分為基于機器學習的臨床數據檢測方法和基于深度學習的圖像檢測方法,這種新興的輔助診斷方法在醫(yī)學領域的應用日漸成熟,比如食道癌臨床特征的檢測、腦腫瘤圖像的檢測等。但是,基于人工智能的方法在宮頸癌檢測方面的研究比較少,并且仍面臨著許多的困難與挑戰(zhàn)。首先,目前還沒有用于宮頸癌類別檢測的MRI標準數據集,特征明顯且分類準確的數據集不僅能夠增強模型的預測能力,而且可以提高訓練時的收斂性;其次,細胞涂片或CT圖像具有單一性,同一類別的圖像數據在經過訓練后提取到的特征信息相差較大,難以發(fā)揮模型的最佳性能;第三,真實有效的宮頸癌樣本數量十分有限,并且還存在嚴重的數據類別分布不平衡問題。本文在對宮頸癌病理類型檢測的研究基礎上,對來自于四川省某三甲醫(yī)院的臨...
【文章來源】:西華師范大學四川省
【文章頁數】:61 頁
【學位級別】:碩士
【部分圖文】:
生成對抗網絡[64]
第2章相關理論基礎14和,再持續(xù)增加深度時則圖2-2不同卷積網絡的參數配置Fig.2-2Theparameterconfigurationofdifferentconvolutionalnetworks會導致準確率下降。如果持續(xù)加深網絡,那么誤差會越來越大,容易影響模型的整體效果,而也沒方法尋找到一個最佳深度網絡模型。殘差網絡的出現,即是一種能夠找到最優(yōu)深度網絡配置的方法。另一方面,ResNet的出現也借鑒了以往經典神經網絡模型的經驗,如圖2-3所示。在VGG中,網絡的層數達到了19層,而在GoogLeNet中,則達到了史無前例的22層,當時研究者主要關心的問題即是模型的準確度是否會隨著網絡層數的加深而增多。當神經網絡進入了深度層面的考慮之后,資源消耗、模型過擬合和梯度消失(梯度爆炸)成為了最常見的討論話題。那么對于資源消耗問題,可以在不考慮時間復雜度和空間復雜度的情況下使用GPU集群來解決。通過收集大量有效數據,并搭配使用Dropout正則化規(guī)則等方法可以有效的避免模型過擬合的發(fā)生。
沒岷陀滌?6層的VGG網絡的效果相同。所以,我們可以在擁有100層的VGG網絡中的第98層和第14層之間添加一條直接映射(IdentityMapping)來達到此效果。如果從信息論的角度講,由于數據處理不等式的存在,在前向傳輸的過程中,隨著層數的加深,特征映射關系中包含的圖像信息會逐層減少,而直接映射的加入,保證了l+1層的網絡一定比l層包含更多的圖像信息。而這種直接映射的這種思想則是殘差網絡的核心觀念。2.4.2殘差學習模塊和應用殘差網絡中提出一種全新的隱層間連接方式,即快捷連接(shortcutconnection),其部分結構如圖2-4所示,其中包含了兩種映射關系,一種是恒等映射(identitymapping),指的是圖中的彎曲線;另一種則是殘差映射(residualmapping),指的是除了彎曲線之外的部分。當網絡已經達到最優(yōu)配置時,若繼續(xù)加深網絡,則殘差映射將會被置為0,這時就只剩下恒等映射關圖2-4殘差學習模塊Fig.2-4Theresiduallearningmodule系,在理論情況下網絡將會一直處于最優(yōu)狀態(tài),網絡的性能也就不會隨著深度的加深而降低了。若將輸入設為x,將帶數的參網絡層設為H,那么以x為輸入的隱層的輸出將為H(x)。傳統(tǒng)的卷積神經網絡會直接通過模型訓練來學習出函數H的表達,從而直接學習x->H(x),而殘差學習則是使用多個帶參數的網絡來學習輸入、輸出之間的殘差,即學習X→(H(x)+x)。其中的X這一部分代表了上述恒等映射關系。殘差學習模塊表示為:x=x+F(x,W)(27)通常情況下,殘差網絡是由不止一個殘差學習模塊組成。上式中x是恒等映射部分,
本文編號:3379878
【文章來源】:西華師范大學四川省
【文章頁數】:61 頁
【學位級別】:碩士
【部分圖文】:
生成對抗網絡[64]
第2章相關理論基礎14和,再持續(xù)增加深度時則圖2-2不同卷積網絡的參數配置Fig.2-2Theparameterconfigurationofdifferentconvolutionalnetworks會導致準確率下降。如果持續(xù)加深網絡,那么誤差會越來越大,容易影響模型的整體效果,而也沒方法尋找到一個最佳深度網絡模型。殘差網絡的出現,即是一種能夠找到最優(yōu)深度網絡配置的方法。另一方面,ResNet的出現也借鑒了以往經典神經網絡模型的經驗,如圖2-3所示。在VGG中,網絡的層數達到了19層,而在GoogLeNet中,則達到了史無前例的22層,當時研究者主要關心的問題即是模型的準確度是否會隨著網絡層數的加深而增多。當神經網絡進入了深度層面的考慮之后,資源消耗、模型過擬合和梯度消失(梯度爆炸)成為了最常見的討論話題。那么對于資源消耗問題,可以在不考慮時間復雜度和空間復雜度的情況下使用GPU集群來解決。通過收集大量有效數據,并搭配使用Dropout正則化規(guī)則等方法可以有效的避免模型過擬合的發(fā)生。
沒岷陀滌?6層的VGG網絡的效果相同。所以,我們可以在擁有100層的VGG網絡中的第98層和第14層之間添加一條直接映射(IdentityMapping)來達到此效果。如果從信息論的角度講,由于數據處理不等式的存在,在前向傳輸的過程中,隨著層數的加深,特征映射關系中包含的圖像信息會逐層減少,而直接映射的加入,保證了l+1層的網絡一定比l層包含更多的圖像信息。而這種直接映射的這種思想則是殘差網絡的核心觀念。2.4.2殘差學習模塊和應用殘差網絡中提出一種全新的隱層間連接方式,即快捷連接(shortcutconnection),其部分結構如圖2-4所示,其中包含了兩種映射關系,一種是恒等映射(identitymapping),指的是圖中的彎曲線;另一種則是殘差映射(residualmapping),指的是除了彎曲線之外的部分。當網絡已經達到最優(yōu)配置時,若繼續(xù)加深網絡,則殘差映射將會被置為0,這時就只剩下恒等映射關圖2-4殘差學習模塊Fig.2-4Theresiduallearningmodule系,在理論情況下網絡將會一直處于最優(yōu)狀態(tài),網絡的性能也就不會隨著深度的加深而降低了。若將輸入設為x,將帶數的參網絡層設為H,那么以x為輸入的隱層的輸出將為H(x)。傳統(tǒng)的卷積神經網絡會直接通過模型訓練來學習出函數H的表達,從而直接學習x->H(x),而殘差學習則是使用多個帶參數的網絡來學習輸入、輸出之間的殘差,即學習X→(H(x)+x)。其中的X這一部分代表了上述恒等映射關系。殘差學習模塊表示為:x=x+F(x,W)(27)通常情況下,殘差網絡是由不止一個殘差學習模塊組成。上式中x是恒等映射部分,
本文編號:3379878
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3379878.html