基于卷積神經(jīng)網(wǎng)絡(luò)的彩色眼底圖像血管分割與糖尿病視網(wǎng)膜病變檢測(cè)的研究
發(fā)布時(shí)間:2021-06-05 22:32
眼睛是心靈的窗戶也是人體感知外界環(huán)境的關(guān)鍵器官之一,而視網(wǎng)膜是眼睛器官的核心組成部分,它的健康狀況直接影響著人體的視力水平。在現(xiàn)有視網(wǎng)膜損傷患者中,由糖尿病引發(fā)的視網(wǎng)膜病變占到了相當(dāng)大的一部分,特別是在中老年群體中,成為了首要的視力損傷原因;同時(shí),人體的部分疾病會(huì)在身體的血液循環(huán)系統(tǒng)中或多或少的反應(yīng)出來(lái),而眼底視網(wǎng)膜圖像能夠直接觀察毛細(xì)血管的健康狀態(tài),及時(shí)發(fā)現(xiàn)身體的異常狀態(tài)。因此,針對(duì)視網(wǎng)膜眼底圖像展開相關(guān)研究,不僅可以為糖尿病患者的視網(wǎng)膜病變治療提供幫助,還能為其他相關(guān)疾病的早發(fā)現(xiàn)、早治療提供具有重要意義的科學(xué)診斷依據(jù)。本論文以彩色視網(wǎng)膜眼底圖像為研究對(duì)象,針對(duì)血管圖像分割方法和視網(wǎng)膜病變檢測(cè)理論展開研究,在現(xiàn)有醫(yī)學(xué)圖像處理方法的基礎(chǔ)上,引入卷積神經(jīng)網(wǎng)絡(luò)分析理論,嘗試設(shè)計(jì)并建立適用性較好的圖像網(wǎng)絡(luò)分析模型,有效的提高基于眼底圖像的血管分割精確度和糖尿病視網(wǎng)膜病變的檢測(cè)效率。本文的具體研究?jī)?nèi)容如下:1、設(shè)計(jì)了一種集成殘差U型分割網(wǎng)絡(luò)(ERU-Net)針對(duì)當(dāng)前彩色視網(wǎng)膜眼底圖像血管分割技術(shù)精度低、速度慢等局限,本文設(shè)計(jì)了一種集成殘差U型分割網(wǎng)絡(luò),在提高眼底圖像分割精度和速度上取得了較好的...
【文章來(lái)源】:廣西師范大學(xué)廣西壯族自治區(qū)
【文章頁(yè)數(shù)】:54 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.?2步長(zhǎng)為1的反卷積過程??
經(jīng)網(wǎng)絡(luò)理論基礎(chǔ)???田田??邏?????輸入圈像?均值:池化最大值池化??圍2.?3均值池化與暈大值池化??4)激活函數(shù)層??在未引入激活函數(shù)時(shí),神經(jīng)網(wǎng)絡(luò)的每—雇都是其輸入的線性函數(shù),無(wú)論搭建多少層的網(wǎng)??絡(luò)層都是其輸入的線性組合,也就是最初的感知機(jī)。因此需要引入激活函數(shù)增加網(wǎng)絡(luò)的非線??性,以表征復(fù)雜的特征和擁有遛近任何函數(shù)的能力。非線性與可微性是激活函數(shù)的兩個(gè)必須??條件,其可微是保班梯度優(yōu)化求導(dǎo)韻關(guān)鍵s常見的激活函數(shù)有Sigmoid、Tanh和ReLU三??種,如圖2.4所示Sigmoid函數(shù)圖像%?Tanh函數(shù)圖像的對(duì)稱點(diǎn)分別在(0,0.5)與(0,0),兩??個(gè)函數(shù)圖像在兩端都趨于飽滿。ReLU函數(shù)圖像在大于0的時(shí)候保持原值,在小于0時(shí)為0,??有效解決了適區(qū)聞的梯度消失問題,極大減少了運(yùn)算肘間。???ReLU?10.0?■???Sigmoid?v〇'?—?Tanh?l.oo?■?廣??75.?f?0.75-?/??5.0-?/?0.50-?/??2.5?I?0.25?■?I??—1?1?1?_?0-0?— ̄.?.?1——?0.5/?—'?1?1?r-*98-|?1?.?.???-10.0?-7,5?-5.0?-2.5?0?0?2.5?5.0?7.5?/?-10.0?-7.5?-5.CI?-2.S?穸?2.5?5.0?7.5?1??-2.5?/?-0.25-??-5.0?/?々十??-7.5?J?y5??--1?^—r^l—i—????(a)?ReLU?函數(shù)?(b)?Sigmoid?函數(shù)?(c)?Tanh?函數(shù)??
??較分析,在加深了層數(shù)之后準(zhǔn)確率有了明顯的提高。何凱明等人[39]發(fā)現(xiàn),一味的增加網(wǎng)絡(luò)深??度,雖然在準(zhǔn)確率上有一定的提升,但是增加到一定程度后會(huì)出現(xiàn)梯度消失、網(wǎng)絡(luò)收斂困難、??過擬合等問題。針對(duì)這些問題,他們借助了計(jì)算機(jī)視覺領(lǐng)域常用的殘差表征(Residual??representation)的概念提出了f種殘盡模塊.,進(jìn)而構(gòu)建殘差:網(wǎng)絡(luò)(ResNet)。通過這個(gè)殘義權(quán)??塊,可以通過不斷加深網(wǎng)絡(luò)深度提升網(wǎng)絡(luò)的準(zhǔn)確率。并且在2015年ILSVR2015圖像識(shí)別比??賽中取得冠軍。圖2.5展示了殘差模塊,可以用公式表示為;??y?=?f(x*w+b)+x?(2.3)??其中x是網(wǎng)絡(luò)層的輸入特征圖,y是網(wǎng)絡(luò)層的輸出特征圖,f(〇為參數(shù)層,w表苯網(wǎng)絡(luò)層的權(quán)??釐,b表示網(wǎng)絡(luò)層偏賃貴表示卷積操作。殘差連接在未增加網(wǎng)路參數(shù)的情況下,通過恒等??映射在輸入與輸出之M建立了一條直接關(guān)聯(lián)的通道,從而使參數(shù)層將注意力轉(zhuǎn)向?qū)W習(xí)輸入、??輸出之間的殘差關(guān)系,這樣能保證網(wǎng)絡(luò)不會(huì)出現(xiàn)退化現(xiàn)象。而一般的卷積神經(jīng)網(wǎng)絡(luò)如VGG通??過輸入數(shù)據(jù)x擬合參數(shù)層f(〇,這樣很難形成恒等映射。??f(x)?ReLU?I?x??Conv?j??f(x)+x??Y?ReLU??y會(huì)??圖2.5?ResNet殘差模塊??2.2.2?DenseNet??Huang等人_的研究表明,卷積神經(jīng)網(wǎng)絡(luò)在相近輸入和相近輸出的層之間進(jìn)行連接,能??讓網(wǎng)絡(luò)加深下去,并且網(wǎng)絡(luò)的準(zhǔn)確性得到明顯提高;谶@個(gè)發(fā)現(xiàn),他們基于前饋的方式將??每個(gè)層的輸出與后面所有層的輸入進(jìn)行密集的連接,從而提出了一種密集卷積網(wǎng)絡(luò)??(DenseNet)。密集連接模塊如圖2.6所示,對(duì)于每一
【參考文獻(xiàn)】:
期刊論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像去噪研究[J]. 李傳朋,秦品樂,張晉京. 計(jì)算機(jī)工程. 2017(03)
[2]視力損害的流行病學(xué)研究[J]. 美麗巴努·玉素甫,陳雪藝. 國(guó)際眼科雜志. 2010(02)
本文編號(hào):3213042
【文章來(lái)源】:廣西師范大學(xué)廣西壯族自治區(qū)
【文章頁(yè)數(shù)】:54 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.?2步長(zhǎng)為1的反卷積過程??
經(jīng)網(wǎng)絡(luò)理論基礎(chǔ)???田田??邏?????輸入圈像?均值:池化最大值池化??圍2.?3均值池化與暈大值池化??4)激活函數(shù)層??在未引入激活函數(shù)時(shí),神經(jīng)網(wǎng)絡(luò)的每—雇都是其輸入的線性函數(shù),無(wú)論搭建多少層的網(wǎng)??絡(luò)層都是其輸入的線性組合,也就是最初的感知機(jī)。因此需要引入激活函數(shù)增加網(wǎng)絡(luò)的非線??性,以表征復(fù)雜的特征和擁有遛近任何函數(shù)的能力。非線性與可微性是激活函數(shù)的兩個(gè)必須??條件,其可微是保班梯度優(yōu)化求導(dǎo)韻關(guān)鍵s常見的激活函數(shù)有Sigmoid、Tanh和ReLU三??種,如圖2.4所示Sigmoid函數(shù)圖像%?Tanh函數(shù)圖像的對(duì)稱點(diǎn)分別在(0,0.5)與(0,0),兩??個(gè)函數(shù)圖像在兩端都趨于飽滿。ReLU函數(shù)圖像在大于0的時(shí)候保持原值,在小于0時(shí)為0,??有效解決了適區(qū)聞的梯度消失問題,極大減少了運(yùn)算肘間。???ReLU?10.0?■???Sigmoid?v〇'?—?Tanh?l.oo?■?廣??75.?f?0.75-?/??5.0-?/?0.50-?/??2.5?I?0.25?■?I??—1?1?1?_?0-0?— ̄.?.?1——?0.5/?—'?1?1?r-*98-|?1?.?.???-10.0?-7,5?-5.0?-2.5?0?0?2.5?5.0?7.5?/?-10.0?-7.5?-5.CI?-2.S?穸?2.5?5.0?7.5?1??-2.5?/?-0.25-??-5.0?/?々十??-7.5?J?y5??--1?^—r^l—i—????(a)?ReLU?函數(shù)?(b)?Sigmoid?函數(shù)?(c)?Tanh?函數(shù)??
??較分析,在加深了層數(shù)之后準(zhǔn)確率有了明顯的提高。何凱明等人[39]發(fā)現(xiàn),一味的增加網(wǎng)絡(luò)深??度,雖然在準(zhǔn)確率上有一定的提升,但是增加到一定程度后會(huì)出現(xiàn)梯度消失、網(wǎng)絡(luò)收斂困難、??過擬合等問題。針對(duì)這些問題,他們借助了計(jì)算機(jī)視覺領(lǐng)域常用的殘差表征(Residual??representation)的概念提出了f種殘盡模塊.,進(jìn)而構(gòu)建殘差:網(wǎng)絡(luò)(ResNet)。通過這個(gè)殘義權(quán)??塊,可以通過不斷加深網(wǎng)絡(luò)深度提升網(wǎng)絡(luò)的準(zhǔn)確率。并且在2015年ILSVR2015圖像識(shí)別比??賽中取得冠軍。圖2.5展示了殘差模塊,可以用公式表示為;??y?=?f(x*w+b)+x?(2.3)??其中x是網(wǎng)絡(luò)層的輸入特征圖,y是網(wǎng)絡(luò)層的輸出特征圖,f(〇為參數(shù)層,w表苯網(wǎng)絡(luò)層的權(quán)??釐,b表示網(wǎng)絡(luò)層偏賃貴表示卷積操作。殘差連接在未增加網(wǎng)路參數(shù)的情況下,通過恒等??映射在輸入與輸出之M建立了一條直接關(guān)聯(lián)的通道,從而使參數(shù)層將注意力轉(zhuǎn)向?qū)W習(xí)輸入、??輸出之間的殘差關(guān)系,這樣能保證網(wǎng)絡(luò)不會(huì)出現(xiàn)退化現(xiàn)象。而一般的卷積神經(jīng)網(wǎng)絡(luò)如VGG通??過輸入數(shù)據(jù)x擬合參數(shù)層f(〇,這樣很難形成恒等映射。??f(x)?ReLU?I?x??Conv?j??f(x)+x??Y?ReLU??y會(huì)??圖2.5?ResNet殘差模塊??2.2.2?DenseNet??Huang等人_的研究表明,卷積神經(jīng)網(wǎng)絡(luò)在相近輸入和相近輸出的層之間進(jìn)行連接,能??讓網(wǎng)絡(luò)加深下去,并且網(wǎng)絡(luò)的準(zhǔn)確性得到明顯提高;谶@個(gè)發(fā)現(xiàn),他們基于前饋的方式將??每個(gè)層的輸出與后面所有層的輸入進(jìn)行密集的連接,從而提出了一種密集卷積網(wǎng)絡(luò)??(DenseNet)。密集連接模塊如圖2.6所示,對(duì)于每一
【參考文獻(xiàn)】:
期刊論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像去噪研究[J]. 李傳朋,秦品樂,張晉京. 計(jì)算機(jī)工程. 2017(03)
[2]視力損害的流行病學(xué)研究[J]. 美麗巴努·玉素甫,陳雪藝. 國(guó)際眼科雜志. 2010(02)
本文編號(hào):3213042
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3213042.html
最近更新
教材專著