融合型UNet++網(wǎng)絡(luò)的超聲胎兒頭部邊緣檢測(cè)
發(fā)布時(shí)間:2021-10-07 16:47
目的超聲胎兒頭部邊緣檢測(cè)是胎兒頭圍測(cè)量的關(guān)鍵步驟,因胎兒頭部超聲圖像邊界模糊、超聲聲影造成圖像中胎兒顱骨部分缺失、羊水及子宮壁形成與胎兒頭部紋理及灰度相似的結(jié)構(gòu)等因素干擾,給超聲胎兒頭部邊緣檢測(cè)及頭圍測(cè)量帶來(lái)一定的難度。本文提出一種基于端到端的神經(jīng)網(wǎng)絡(luò)超聲圖像分割方法,用于胎兒頭部邊緣檢測(cè)。方法以UNet++神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為基礎(chǔ),結(jié)合UNet++最后一層特征,構(gòu)成融合型UNet++網(wǎng)絡(luò)。訓(xùn)練過(guò)程中,為緩解模型訓(xùn)練過(guò)擬合問(wèn)題,在每一卷積層后接一個(gè)空間dropout層。具體思路是通過(guò)融合型UNet++深度神經(jīng)網(wǎng)絡(luò)提取超聲胎兒頭部圖像特征,通過(guò)胎兒頭部區(qū)域概率圖預(yù)測(cè),輸出胎兒頭部語(yǔ)義分割的感興趣區(qū)域。進(jìn)一步獲取胎兒的頭部邊緣關(guān)鍵點(diǎn)信息,并采用邊緣曲線擬合方法擬合邊緣,最終測(cè)量出胎兒頭圍大小。結(jié)果針對(duì)現(xiàn)有2維超聲胎兒頭圍自動(dòng)測(cè)量公開(kāi)數(shù)據(jù)集HC18,以Dice系數(shù)、Hausdorff距離(HD)、頭圍絕對(duì)差值(AD)等指標(biāo)評(píng)估本文模型性能,結(jié)果 Dice系數(shù)為98. 06%,HD距離為1. 21±0. 69 mm,頭圍測(cè)量AD為1. 84±1. 73 mm。在妊娠中期測(cè)試數(shù)據(jù)中,Dice系數(shù)為98...
【文章來(lái)源】:中國(guó)圖象圖形學(xué)報(bào). 2020,25(02)北大核心CSCD
【文章頁(yè)數(shù)】:12 頁(yè)
【部分圖文】:
超聲胎兒頭圍測(cè)量框圖
UNet++網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)如圖2所示,由編碼結(jié)構(gòu)、解碼結(jié)構(gòu)和密集跳躍連接組成。相同尺寸大小的特征圖定義為同一層,自上而下分別為第1 5層,用L1 L5表示。每一個(gè)節(jié)點(diǎn)代表一個(gè)特征提取模塊,每個(gè)特征模塊由兩個(gè)3×3的卷積層組成,其卷積操作之后,接修正線性單元(ReLU)。UNet++通過(guò)不同層之間由淺入深的空間信息融合,以及同一層模塊之間密集跳躍連接的語(yǔ)義信息融合,縮短編碼器與解碼器之間的語(yǔ)義鴻溝,充分利用上下文特征,網(wǎng)絡(luò)模型能充分有效地捕獲目標(biāo)的細(xì)節(jié)特征,提升分割性能。UNet++結(jié)構(gòu)中,在不同網(wǎng)絡(luò)層之間,自上而下,將編碼器特征與下一層編碼器上采樣特征進(jìn)行融合。融合后的模塊輸出繼續(xù)與下一層相應(yīng)模塊上采樣特征再融合,如此迭代下去,直到模塊下一層沒(méi)有對(duì)應(yīng)的上采樣模塊。每一模塊的輸出結(jié)果為
如圖2所示,在UNet++的L1層特征塊中,每個(gè)特征塊都包含空間信息和語(yǔ)義信息。對(duì)于中間層的輸出特征,其定位信息比較精確,而深層的輸出特征能準(zhǔn)確獲取圖像像素級(jí)的類(lèi)別信息。為了充分利用各輸出層特征塊之間信息差異,本文將UNet++模型的L1層中各特征提取模塊進(jìn)行特征融合,將其融合為更加豐富的特征,構(gòu)成融合型UNet++網(wǎng)絡(luò),對(duì)融合后的輸出進(jìn)行深度監(jiān)督,根據(jù)融合輸出結(jié)果,通過(guò)反向傳播算法調(diào)整網(wǎng)絡(luò)參數(shù),能有效提升圖像分割效果,如圖3所示。L1層特征融合網(wǎng)絡(luò)結(jié)構(gòu)先將L1層最后3個(gè)卷積特征塊進(jìn)行通道連接,再用一個(gè)卷積模塊提取通道連接后的特征信息,即進(jìn)行特征融合,最后輸出特征融合后的預(yù)測(cè)結(jié)果。在融合型UNet++中,根據(jù)預(yù)測(cè)結(jié)果計(jì)算損失,通過(guò)反向傳播,調(diào)節(jié)網(wǎng)絡(luò)參數(shù)。這不僅影響融合特征的輸出,還能通過(guò)對(duì)整體網(wǎng)絡(luò)的參數(shù)調(diào)整,達(dá)到對(duì)淺層、中層和深層輸出結(jié)果在不同程度上的優(yōu)化作用。這也是融合型UNet++網(wǎng)絡(luò)的深層輸出結(jié)果優(yōu)于原有UNet++網(wǎng)絡(luò)單一深層輸出結(jié)果的原因。因淺層輸出預(yù)測(cè)結(jié)果十分粗糙,錯(cuò)誤預(yù)測(cè)區(qū)域范圍較大,融合該層預(yù)測(cè)信息,未能產(chǎn)生很好的效果。因此,本文僅選擇L1層的中層與深層的特征進(jìn)行融合。實(shí)驗(yàn)結(jié)果表明,融合型UNet++的圖像分割效果好于UNet++。特別是在邊緣模糊、圖像中存在與胎兒頭部輪廓相似結(jié)構(gòu)等情況下,其圖像分割區(qū)域能正確預(yù)測(cè),減小誤差。從各項(xiàng)評(píng)估指標(biāo)比較,融合型UNet++網(wǎng)絡(luò)較U-Net或UNet++均有明顯提升。
【參考文獻(xiàn)】:
期刊論文
[1]超聲圖像胎兒顱骨橢圓自動(dòng)檢測(cè)方法[J]. 陳凱,李勝利,唐娉. 中國(guó)圖象圖形學(xué)報(bào). 2009(12)
本文編號(hào):3422415
【文章來(lái)源】:中國(guó)圖象圖形學(xué)報(bào). 2020,25(02)北大核心CSCD
【文章頁(yè)數(shù)】:12 頁(yè)
【部分圖文】:
超聲胎兒頭圍測(cè)量框圖
UNet++網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)如圖2所示,由編碼結(jié)構(gòu)、解碼結(jié)構(gòu)和密集跳躍連接組成。相同尺寸大小的特征圖定義為同一層,自上而下分別為第1 5層,用L1 L5表示。每一個(gè)節(jié)點(diǎn)代表一個(gè)特征提取模塊,每個(gè)特征模塊由兩個(gè)3×3的卷積層組成,其卷積操作之后,接修正線性單元(ReLU)。UNet++通過(guò)不同層之間由淺入深的空間信息融合,以及同一層模塊之間密集跳躍連接的語(yǔ)義信息融合,縮短編碼器與解碼器之間的語(yǔ)義鴻溝,充分利用上下文特征,網(wǎng)絡(luò)模型能充分有效地捕獲目標(biāo)的細(xì)節(jié)特征,提升分割性能。UNet++結(jié)構(gòu)中,在不同網(wǎng)絡(luò)層之間,自上而下,將編碼器特征與下一層編碼器上采樣特征進(jìn)行融合。融合后的模塊輸出繼續(xù)與下一層相應(yīng)模塊上采樣特征再融合,如此迭代下去,直到模塊下一層沒(méi)有對(duì)應(yīng)的上采樣模塊。每一模塊的輸出結(jié)果為
如圖2所示,在UNet++的L1層特征塊中,每個(gè)特征塊都包含空間信息和語(yǔ)義信息。對(duì)于中間層的輸出特征,其定位信息比較精確,而深層的輸出特征能準(zhǔn)確獲取圖像像素級(jí)的類(lèi)別信息。為了充分利用各輸出層特征塊之間信息差異,本文將UNet++模型的L1層中各特征提取模塊進(jìn)行特征融合,將其融合為更加豐富的特征,構(gòu)成融合型UNet++網(wǎng)絡(luò),對(duì)融合后的輸出進(jìn)行深度監(jiān)督,根據(jù)融合輸出結(jié)果,通過(guò)反向傳播算法調(diào)整網(wǎng)絡(luò)參數(shù),能有效提升圖像分割效果,如圖3所示。L1層特征融合網(wǎng)絡(luò)結(jié)構(gòu)先將L1層最后3個(gè)卷積特征塊進(jìn)行通道連接,再用一個(gè)卷積模塊提取通道連接后的特征信息,即進(jìn)行特征融合,最后輸出特征融合后的預(yù)測(cè)結(jié)果。在融合型UNet++中,根據(jù)預(yù)測(cè)結(jié)果計(jì)算損失,通過(guò)反向傳播,調(diào)節(jié)網(wǎng)絡(luò)參數(shù)。這不僅影響融合特征的輸出,還能通過(guò)對(duì)整體網(wǎng)絡(luò)的參數(shù)調(diào)整,達(dá)到對(duì)淺層、中層和深層輸出結(jié)果在不同程度上的優(yōu)化作用。這也是融合型UNet++網(wǎng)絡(luò)的深層輸出結(jié)果優(yōu)于原有UNet++網(wǎng)絡(luò)單一深層輸出結(jié)果的原因。因淺層輸出預(yù)測(cè)結(jié)果十分粗糙,錯(cuò)誤預(yù)測(cè)區(qū)域范圍較大,融合該層預(yù)測(cè)信息,未能產(chǎn)生很好的效果。因此,本文僅選擇L1層的中層與深層的特征進(jìn)行融合。實(shí)驗(yàn)結(jié)果表明,融合型UNet++的圖像分割效果好于UNet++。特別是在邊緣模糊、圖像中存在與胎兒頭部輪廓相似結(jié)構(gòu)等情況下,其圖像分割區(qū)域能正確預(yù)測(cè),減小誤差。從各項(xiàng)評(píng)估指標(biāo)比較,融合型UNet++網(wǎng)絡(luò)較U-Net或UNet++均有明顯提升。
【參考文獻(xiàn)】:
期刊論文
[1]超聲圖像胎兒顱骨橢圓自動(dòng)檢測(cè)方法[J]. 陳凱,李勝利,唐娉. 中國(guó)圖象圖形學(xué)報(bào). 2009(12)
本文編號(hào):3422415
本文鏈接:http://sikaile.net/yixuelunwen/fuchankeerkelunwen/3422415.html
最近更新
教材專(zhuān)著