基于2.5D級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的CT圖像胰腺分割方法
發(fā)布時(shí)間:2021-09-05 11:57
目的:由于胰腺體積小、形態(tài)個(gè)體差異性大,影像上的準(zhǔn)確分割較為困難。本文提出一種基于2.5D級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的CT圖像胰腺分割方法。方法:實(shí)驗(yàn)中使用的數(shù)據(jù)為NIH胰腺分割公開數(shù)據(jù)集,共包含82例腹部CT圖像,隨機(jī)選取其中56、9、17例分別作為訓(xùn)練集、驗(yàn)證集和測試集;訓(xùn)練過程中使用旋轉(zhuǎn)、拉伸、平移、裁剪等操作對(duì)數(shù)據(jù)進(jìn)行擴(kuò)增。實(shí)驗(yàn)中提出一種用于胰腺分割的、結(jié)合概率圖的2.5D級(jí)聯(lián)深度監(jiān)督UNet,即CSNet(Cascading deep Supervision UNet)。該網(wǎng)絡(luò)由3個(gè)部分組成:第1部分基于UNet,輸入連續(xù)5層圖像,輸出中間3層對(duì)應(yīng)的粗分割圖像,設(shè)置適當(dāng)?shù)拈撝?使其變成二值的粗分割結(jié)果;第2部分將第1層、第3層的粗分割結(jié)果與中間層的原始圖像相結(jié)合,輸入另一個(gè)深度監(jiān)督UNet網(wǎng)絡(luò),得到中間層的精細(xì)分割;第3部分將第1部分網(wǎng)絡(luò)輸出的中間層的粗分割概率圖與第2部分網(wǎng)絡(luò)輸出的細(xì)分割概率圖通過1×1卷積進(jìn)行概率融合得到最終的輸出結(jié)果。3個(gè)子網(wǎng)絡(luò)同時(shí)進(jìn)行訓(xùn)練,對(duì)應(yīng)的能量函數(shù)聯(lián)合優(yōu)化,從而得到更精準(zhǔn)的分割結(jié)果。最后,使用DSC對(duì)分割結(jié)果進(jìn)行評(píng)估。結(jié)果:在獨(dú)立測試集上,CSNet實(shí)現(xiàn)了...
【文章來源】:中國醫(yī)學(xué)物理學(xué)雜志. 2020,37(06)CSCD
【文章頁數(shù)】:6 頁
【部分圖文】:
CSNet流程圖
2.5D深度監(jiān)督UNet網(wǎng)絡(luò)SNet的結(jié)構(gòu)
從實(shí)驗(yàn)結(jié)果中的表1可以看出,本文提出的CSNet在5個(gè)評(píng)價(jià)指標(biāo)上都取得了較好的結(jié)果。2.5D UNet網(wǎng)絡(luò)模型的分割結(jié)果優(yōu)于2D UNet,這是因?yàn)?.5D的輸入更有效地利用了胰腺三維結(jié)構(gòu)信息;深度監(jiān)督2.5D UNet網(wǎng)絡(luò)模型SNet是在特征組合時(shí),在最后一次反卷積之前加一個(gè)深度監(jiān)督層,通過下采樣層的監(jiān)督,使網(wǎng)絡(luò)能夠保留更多的結(jié)構(gòu)信息;同時(shí),在深度監(jiān)督層上使用與主網(wǎng)絡(luò)不同大小的卷積核(圖2),這樣能夠得到不同視野的組合特征,從而利用更多的細(xì)節(jié)信息[19-20],最終獲得比2.5D UNet更好的分割結(jié)果。CSNet及其兩個(gè)子網(wǎng)絡(luò)SNet1和SNet2的分割結(jié)果均優(yōu)于其余傳統(tǒng)的UNet分割模型,即使相比于單獨(dú)的深度監(jiān)督2.5D UNet網(wǎng)絡(luò)模型SNet,也明顯有很大提升。在訓(xùn)練過程中,同時(shí)訓(xùn)練兩個(gè)子網(wǎng)絡(luò)和概率融合網(wǎng)絡(luò),對(duì)3個(gè)部分的能量函數(shù)進(jìn)行聯(lián)合優(yōu)化,與只訓(xùn)練最后的概率融合結(jié)果相比,這樣的訓(xùn)練方式使3個(gè)部分在各自優(yōu)化的同時(shí)可以相互促進(jìn),而又不會(huì)因?yàn)橹蛔⒅厝謨?yōu)化而失去能夠進(jìn)一步整個(gè)網(wǎng)絡(luò)的分割結(jié)果的細(xì)節(jié)信息。從表1中最后3行可以看出,CSNet的分割結(jié)果在多數(shù)評(píng)價(jià)標(biāo)準(zhǔn)上,優(yōu)于兩個(gè)子網(wǎng)絡(luò)的分割結(jié)果。這是因?yàn)镾Net1與SNet2輸出的概率圖所包含的信息并不完全相同,當(dāng)進(jìn)行概率融合時(shí),通過對(duì)卷積核權(quán)重的優(yōu)化就可以保留兩者中有利于分割的信息。最終使得CSNet的分割結(jié)果優(yōu)于粗分割網(wǎng)絡(luò)SNet1和細(xì)分割網(wǎng)絡(luò)SNet2。
本文編號(hào):3385306
【文章來源】:中國醫(yī)學(xué)物理學(xué)雜志. 2020,37(06)CSCD
【文章頁數(shù)】:6 頁
【部分圖文】:
CSNet流程圖
2.5D深度監(jiān)督UNet網(wǎng)絡(luò)SNet的結(jié)構(gòu)
從實(shí)驗(yàn)結(jié)果中的表1可以看出,本文提出的CSNet在5個(gè)評(píng)價(jià)指標(biāo)上都取得了較好的結(jié)果。2.5D UNet網(wǎng)絡(luò)模型的分割結(jié)果優(yōu)于2D UNet,這是因?yàn)?.5D的輸入更有效地利用了胰腺三維結(jié)構(gòu)信息;深度監(jiān)督2.5D UNet網(wǎng)絡(luò)模型SNet是在特征組合時(shí),在最后一次反卷積之前加一個(gè)深度監(jiān)督層,通過下采樣層的監(jiān)督,使網(wǎng)絡(luò)能夠保留更多的結(jié)構(gòu)信息;同時(shí),在深度監(jiān)督層上使用與主網(wǎng)絡(luò)不同大小的卷積核(圖2),這樣能夠得到不同視野的組合特征,從而利用更多的細(xì)節(jié)信息[19-20],最終獲得比2.5D UNet更好的分割結(jié)果。CSNet及其兩個(gè)子網(wǎng)絡(luò)SNet1和SNet2的分割結(jié)果均優(yōu)于其余傳統(tǒng)的UNet分割模型,即使相比于單獨(dú)的深度監(jiān)督2.5D UNet網(wǎng)絡(luò)模型SNet,也明顯有很大提升。在訓(xùn)練過程中,同時(shí)訓(xùn)練兩個(gè)子網(wǎng)絡(luò)和概率融合網(wǎng)絡(luò),對(duì)3個(gè)部分的能量函數(shù)進(jìn)行聯(lián)合優(yōu)化,與只訓(xùn)練最后的概率融合結(jié)果相比,這樣的訓(xùn)練方式使3個(gè)部分在各自優(yōu)化的同時(shí)可以相互促進(jìn),而又不會(huì)因?yàn)橹蛔⒅厝謨?yōu)化而失去能夠進(jìn)一步整個(gè)網(wǎng)絡(luò)的分割結(jié)果的細(xì)節(jié)信息。從表1中最后3行可以看出,CSNet的分割結(jié)果在多數(shù)評(píng)價(jià)標(biāo)準(zhǔn)上,優(yōu)于兩個(gè)子網(wǎng)絡(luò)的分割結(jié)果。這是因?yàn)镾Net1與SNet2輸出的概率圖所包含的信息并不完全相同,當(dāng)進(jìn)行概率融合時(shí),通過對(duì)卷積核權(quán)重的優(yōu)化就可以保留兩者中有利于分割的信息。最終使得CSNet的分割結(jié)果優(yōu)于粗分割網(wǎng)絡(luò)SNet1和細(xì)分割網(wǎng)絡(luò)SNet2。
本文編號(hào):3385306
本文鏈接:http://sikaile.net/yixuelunwen/yundongyixue/3385306.html
最近更新
教材專著