基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分割算法的優(yōu)化與實(shí)現(xiàn)
發(fā)布時(shí)間:2022-01-26 07:14
惡性腫瘤一直是危害人類健康的主要疾病之一,其發(fā)病率和死亡率一直居高不下。在治療腫瘤的放化療過(guò)程中,對(duì)腫瘤區(qū)域的靶區(qū)與周圍重要器官的分割一直處于重要地位。此前由醫(yī)生進(jìn)行的人工分割成本巨大,如何進(jìn)一步減輕醫(yī)生的工作量,提高治療的效率一直是近年來(lái)的研究熱點(diǎn)。隨著人工智能技術(shù)的快速發(fā)展,深度學(xué)習(xí)算法在計(jì)算機(jī)輔助診斷中取得了突破性的應(yīng)用;谏疃葘W(xué)習(xí)的圖像分割算法應(yīng)用在醫(yī)學(xué)領(lǐng)域,能夠快速地實(shí)現(xiàn)自動(dòng)化的靶區(qū)勾畫與器官分割,減緩醫(yī)療資源的緊張,提高患者的就醫(yī)率。對(duì)治療惡性腫瘤意義重大。本文主要是對(duì)基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分割算法3D-Unet進(jìn)行研究?jī)?yōu)化與實(shí)現(xiàn)。主要貢獻(xiàn)如下:1.提出了一種水平深度多尺度的U型卷積神經(jīng)網(wǎng)絡(luò)(Level Depth Multiscale U-net,LDM-Unet)分割算法,基于3D-Unet,在水平層采用多卷積堆疊方式提取多尺度信息,提高網(wǎng)絡(luò)對(duì)不同尺度目標(biāo)的感知能力,在各深度層利用空洞卷積提取不同深度的空間結(jié)構(gòu)信息,避免連續(xù)池化帶來(lái)的信息損失,從而提高網(wǎng)絡(luò)的分割性能。在公開數(shù)據(jù)集BraTS 2018上對(duì)WholeTumor,TumorCore以及EnhancingTu...
【文章來(lái)源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:75 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
感知器結(jié)構(gòu)示意圖
第二章相關(guān)理論基礎(chǔ)圖2-2簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)示意圖2.1.2梯度下降算法與反向傳播神經(jīng)網(wǎng)絡(luò)的前向傳播可以根據(jù)輸入計(jì)算出網(wǎng)絡(luò)的輸出結(jié)果,但是神經(jīng)網(wǎng)絡(luò)的一系列參數(shù)如權(quán)重和偏置需要從數(shù)據(jù)中學(xué)習(xí)得到。1986年hinton[39]提出了反向傳播算法,用于對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,實(shí)踐證明反向傳播對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果很好,如今的深度學(xué)習(xí)的網(wǎng)絡(luò)模型的訓(xùn)練都是采用反向傳播算法進(jìn)行的。反向傳播算法的核心思想是,通過(guò)前向傳播從輸入數(shù)據(jù)中計(jì)算出一個(gè)輸出結(jié)果,然后通過(guò)一個(gè)誤差損失函數(shù)來(lái)衡量網(wǎng)絡(luò)的預(yù)測(cè)輸出與真實(shí)的數(shù)據(jù)標(biāo)簽之間的誤差。計(jì)算損失函數(shù)對(duì)網(wǎng)絡(luò)模型中各參數(shù)的導(dǎo)數(shù)并通過(guò)梯度下降算法來(lái)更新所有的網(wǎng)絡(luò)模型參數(shù)。達(dá)到參數(shù)的自動(dòng)化學(xué)習(xí)。均方誤差函數(shù)是經(jīng)典的損失函數(shù)之一,其定義表達(dá)式如下:C(w,b)=12nxy(x)aL(x)2(2-6)其中C(w,b)代表了該損失函數(shù)是關(guān)于自變量w與b的函數(shù)映射。w代表了網(wǎng)絡(luò)中所有權(quán)重的集合,b代表了所有的偏置的集合。n為訓(xùn)練樣本的個(gè)數(shù),x表示所有訓(xùn)練樣本的集合,y(x)代表了訓(xùn)練樣本對(duì)應(yīng)的標(biāo)簽,L代表了網(wǎng)絡(luò)的總層數(shù),aL(x)代表了訓(xùn)練樣本對(duì)應(yīng)的網(wǎng)絡(luò)輸出。從函數(shù)定義可知均方誤差函數(shù)是非負(fù)的,并且當(dāng)網(wǎng)絡(luò)對(duì)應(yīng)輸入x的預(yù)測(cè)輸出值越接近x的標(biāo)簽時(shí),函數(shù)值越校當(dāng)損失函數(shù)值接近0時(shí),代表神經(jīng)網(wǎng)絡(luò)的各參數(shù)值已經(jīng)得到了良好的訓(xùn)練,可以使網(wǎng)絡(luò)的輸出與原始的標(biāo)簽達(dá)到基本一致。所以對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練轉(zhuǎn)變?yōu)榍笕p失函數(shù)的9
電子科技大學(xué)碩士學(xué)位論文最小值。均方誤差函數(shù)的示意圖如圖2-3所示。圖2-3二元均方誤差函數(shù)示意圖對(duì)均方誤差損失函數(shù)求取最小值的過(guò)程中,難以利用微積分中尋找最值點(diǎn)的方法,因?yàn)樯窠?jīng)網(wǎng)絡(luò)的訓(xùn)練樣本的維度通常是非常巨大的,這樣就使得損失函數(shù)是一個(gè)非常復(fù)雜的多元函數(shù),用微積分來(lái)直接計(jì)算最小值其計(jì)算量是無(wú)法承擔(dān)的。解決的方法是利用梯度下降法來(lái)近似求解。梯度下降法的核心思想是迭代近似求解,從一個(gè)初始點(diǎn)出發(fā),計(jì)算函數(shù)在當(dāng)前位置的梯度,然后將位置逆梯度移動(dòng),也就是逆梯度方向更新參數(shù),函數(shù)值隨之變小,通過(guò)不斷地迭代移動(dòng),函數(shù)值最終達(dá)到一個(gè)可以接收的較小值。二元均方誤差函數(shù)的梯度下降示意如圖2-4所示.梯度下降法更新參數(shù)的規(guī)則如下所示:wk→w′k=wkηCwkbl→b′l=blηCbl(2-7)其中η代表了一次移動(dòng)的步長(zhǎng),稱為學(xué)習(xí)率,是人為指定的參數(shù),稱為超參數(shù),與權(quán)重偏置等被網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)的參數(shù)不同。這個(gè)超參數(shù)決定了參數(shù)更新的速率。由于訓(xùn)練樣本的數(shù)量通常比較大,所以如果在所有訓(xùn)練樣本上進(jìn)行梯度下降也會(huì)導(dǎo)致訓(xùn)練速度過(guò)慢。解決的辦法是每次選取一個(gè)批次(Batch)的訓(xùn)練樣本,在這個(gè)批次上進(jìn)行一步梯度下降算法,對(duì)網(wǎng)絡(luò)模型的所有參數(shù)進(jìn)行一次更新操作。10
本文編號(hào):3610064
【文章來(lái)源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:75 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
感知器結(jié)構(gòu)示意圖
第二章相關(guān)理論基礎(chǔ)圖2-2簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)示意圖2.1.2梯度下降算法與反向傳播神經(jīng)網(wǎng)絡(luò)的前向傳播可以根據(jù)輸入計(jì)算出網(wǎng)絡(luò)的輸出結(jié)果,但是神經(jīng)網(wǎng)絡(luò)的一系列參數(shù)如權(quán)重和偏置需要從數(shù)據(jù)中學(xué)習(xí)得到。1986年hinton[39]提出了反向傳播算法,用于對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,實(shí)踐證明反向傳播對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果很好,如今的深度學(xué)習(xí)的網(wǎng)絡(luò)模型的訓(xùn)練都是采用反向傳播算法進(jìn)行的。反向傳播算法的核心思想是,通過(guò)前向傳播從輸入數(shù)據(jù)中計(jì)算出一個(gè)輸出結(jié)果,然后通過(guò)一個(gè)誤差損失函數(shù)來(lái)衡量網(wǎng)絡(luò)的預(yù)測(cè)輸出與真實(shí)的數(shù)據(jù)標(biāo)簽之間的誤差。計(jì)算損失函數(shù)對(duì)網(wǎng)絡(luò)模型中各參數(shù)的導(dǎo)數(shù)并通過(guò)梯度下降算法來(lái)更新所有的網(wǎng)絡(luò)模型參數(shù)。達(dá)到參數(shù)的自動(dòng)化學(xué)習(xí)。均方誤差函數(shù)是經(jīng)典的損失函數(shù)之一,其定義表達(dá)式如下:C(w,b)=12nxy(x)aL(x)2(2-6)其中C(w,b)代表了該損失函數(shù)是關(guān)于自變量w與b的函數(shù)映射。w代表了網(wǎng)絡(luò)中所有權(quán)重的集合,b代表了所有的偏置的集合。n為訓(xùn)練樣本的個(gè)數(shù),x表示所有訓(xùn)練樣本的集合,y(x)代表了訓(xùn)練樣本對(duì)應(yīng)的標(biāo)簽,L代表了網(wǎng)絡(luò)的總層數(shù),aL(x)代表了訓(xùn)練樣本對(duì)應(yīng)的網(wǎng)絡(luò)輸出。從函數(shù)定義可知均方誤差函數(shù)是非負(fù)的,并且當(dāng)網(wǎng)絡(luò)對(duì)應(yīng)輸入x的預(yù)測(cè)輸出值越接近x的標(biāo)簽時(shí),函數(shù)值越校當(dāng)損失函數(shù)值接近0時(shí),代表神經(jīng)網(wǎng)絡(luò)的各參數(shù)值已經(jīng)得到了良好的訓(xùn)練,可以使網(wǎng)絡(luò)的輸出與原始的標(biāo)簽達(dá)到基本一致。所以對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練轉(zhuǎn)變?yōu)榍笕p失函數(shù)的9
電子科技大學(xué)碩士學(xué)位論文最小值。均方誤差函數(shù)的示意圖如圖2-3所示。圖2-3二元均方誤差函數(shù)示意圖對(duì)均方誤差損失函數(shù)求取最小值的過(guò)程中,難以利用微積分中尋找最值點(diǎn)的方法,因?yàn)樯窠?jīng)網(wǎng)絡(luò)的訓(xùn)練樣本的維度通常是非常巨大的,這樣就使得損失函數(shù)是一個(gè)非常復(fù)雜的多元函數(shù),用微積分來(lái)直接計(jì)算最小值其計(jì)算量是無(wú)法承擔(dān)的。解決的方法是利用梯度下降法來(lái)近似求解。梯度下降法的核心思想是迭代近似求解,從一個(gè)初始點(diǎn)出發(fā),計(jì)算函數(shù)在當(dāng)前位置的梯度,然后將位置逆梯度移動(dòng),也就是逆梯度方向更新參數(shù),函數(shù)值隨之變小,通過(guò)不斷地迭代移動(dòng),函數(shù)值最終達(dá)到一個(gè)可以接收的較小值。二元均方誤差函數(shù)的梯度下降示意如圖2-4所示.梯度下降法更新參數(shù)的規(guī)則如下所示:wk→w′k=wkηCwkbl→b′l=blηCbl(2-7)其中η代表了一次移動(dòng)的步長(zhǎng),稱為學(xué)習(xí)率,是人為指定的參數(shù),稱為超參數(shù),與權(quán)重偏置等被網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)的參數(shù)不同。這個(gè)超參數(shù)決定了參數(shù)更新的速率。由于訓(xùn)練樣本的數(shù)量通常比較大,所以如果在所有訓(xùn)練樣本上進(jìn)行梯度下降也會(huì)導(dǎo)致訓(xùn)練速度過(guò)慢。解決的辦法是每次選取一個(gè)批次(Batch)的訓(xùn)練樣本,在這個(gè)批次上進(jìn)行一步梯度下降算法,對(duì)網(wǎng)絡(luò)模型的所有參數(shù)進(jìn)行一次更新操作。10
本文編號(hào):3610064
本文鏈接:http://sikaile.net/yixuelunwen/swyx/3610064.html
最近更新
教材專著