天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于深度學(xué)習(xí)的乳腺腫瘤圖像識(shí)別研究

發(fā)布時(shí)間:2021-01-24 13:22
  醫(yī)學(xué)圖像是當(dāng)今醫(yī)學(xué)診查的主要方式,乳腺鉬靶影像更是腫瘤及癌癥篩查的首要方式,由于傳統(tǒng)的鉬靶影像需要放射科醫(yī)生在幾百?gòu)垐D片中進(jìn)行人工的篩選,耗費(fèi)大量的時(shí)間和精力甚至?xí)z、誤檢。隨著神經(jīng)網(wǎng)絡(luò)技術(shù)的日益成熟,越來(lái)越多的學(xué)者深度學(xué)習(xí)算法應(yīng)用于醫(yī)學(xué)圖像的分割與識(shí)別中,目標(biāo)檢測(cè)算法是針對(duì)醫(yī)學(xué)圖像中的腫瘤檢測(cè)最有效的手段之一。本文構(gòu)建了標(biāo)準(zhǔn)的用于深度學(xué)習(xí)目標(biāo)檢測(cè)的乳腺鉬靶X線腫瘤數(shù)據(jù)集,研究并實(shí)現(xiàn)了基于YOLOv3算法改進(jìn)的腫瘤檢測(cè)模型。本文主要工作如下:(1)針對(duì)缺少標(biāo)準(zhǔn)的可適用于深度學(xué)習(xí)訓(xùn)練的乳腺腫瘤圖像數(shù)據(jù)集,根據(jù)與腫瘤醫(yī)院的合作,采集近2000張乳腺鉬靶X線圖像,并通過數(shù)據(jù)均衡、數(shù)據(jù)增廣、CLAHE算法預(yù)處理及部分?jǐn)?shù)據(jù)去噪之后構(gòu)建出10000張左右可用于訓(xùn)練與測(cè)試的標(biāo)準(zhǔn)數(shù)據(jù)集。(2)設(shè)計(jì)了基于YOLOv3的目標(biāo)檢測(cè)模型并將其應(yīng)用于乳腺腫瘤圖像的訓(xùn)練與檢測(cè)實(shí)驗(yàn)之中,通過對(duì)實(shí)驗(yàn)結(jié)果的不斷剖析和研究,對(duì)構(gòu)建的網(wǎng)絡(luò)模型進(jìn)行不斷的優(yōu)化,首先將基于IOU的度量損失方式替換為GIOU回歸損失方式以得到更好的位置關(guān)系,其次將原來(lái)YOLOv3的殘差模塊設(shè)計(jì)為小型的U型結(jié)構(gòu),每個(gè)尺度的特征圖對(duì)應(yīng)一個(gè)U型結(jié)構(gòu)來(lái)... 

【文章來(lái)源】:沈陽(yáng)工業(yè)大學(xué)遼寧省

【文章頁(yè)數(shù)】:56 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的乳腺腫瘤圖像識(shí)別研究


乳腺癌診斷與CAD系統(tǒng)

影像,乳腺,腫瘤,示例


目標(biāo)是設(shè)計(jì)并實(shí)現(xiàn)基于深度學(xué)習(xí)的乳腺腫瘤圖像識(shí)別模型,實(shí)現(xiàn)對(duì)于大量乳腺腫瘤圖像的分析與識(shí)別,并對(duì)運(yùn)用于乳腺腫瘤識(shí)別的深度學(xué)習(xí)算法進(jìn)行改進(jìn),使目標(biāo)檢測(cè)算法可以更好地定位乳腺腫瘤,并高精度的實(shí)現(xiàn)良惡性腫瘤分級(jí)的效果。研究?jī)?nèi)容分為圖像分析與處理及乳腺腫瘤識(shí)別兩部分。本課題采集圖像均來(lái)自腫瘤醫(yī)院10年內(nèi)的2000例乳腺鉬靶影像,其中1000例左右為良性腫瘤、500例左右為惡性腫瘤及500例左右的正常圖像,圖像的采集要標(biāo)準(zhǔn)且規(guī)范,拍攝角度很小的偏差將影響到乳腺腫瘤的處理及分割且容易造成乳腺腫瘤圖像識(shí)別的錯(cuò)誤,圖1.2為采集的三位病人的原始乳腺腫瘤圖像示例。圖1.2原始乳腺腫瘤圖像示例Fig.1.2Exampleofrawbreasttumorimage

模型圖,模型,淺層,高層


沂屎閑∧勘曇觳獾腨OLOv3算法作為參考,本章主要介紹YOLO、YOLOv2及YOLOv3的進(jìn)化及在本文數(shù)據(jù)集上的應(yīng)用過程,詳細(xì)闡述基本原理、網(wǎng)絡(luò)結(jié)構(gòu)及訓(xùn)練過程。2.1深度學(xué)習(xí)概述深度學(xué)習(xí)就是由許多神經(jīng)元構(gòu)成能夠進(jìn)行學(xué)習(xí)和分析的神經(jīng)網(wǎng)絡(luò),神經(jīng)元都會(huì)產(chǎn)生激活值并由感知環(huán)境的傳感器激活[22]。深度學(xué)習(xí)能夠?qū)W習(xí)表示高階抽象概念的復(fù)雜函數(shù),解決目標(biāo)識(shí)別、語(yǔ)音感知和語(yǔ)言理解等人工智能相關(guān)的任務(wù)[23],可以從圖像、語(yǔ)音等數(shù)據(jù)中提取淺層或深層的信息并應(yīng)用于分類及回歸等相關(guān)任務(wù)之中。網(wǎng)絡(luò)的不斷更迭引出了深度學(xué)習(xí)這一領(lǐng)域,如圖2.1所示模型是包含若干個(gè)隱藏層的感知器,這種結(jié)構(gòu)可以將輸入數(shù)據(jù)的淺層特征進(jìn)行組合來(lái)形成較為抽象的高層特征或者間接的給出數(shù)據(jù)的高層分類,一般是以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示[24]。圖2.1深度學(xué)習(xí)模型Fig.2.1Deeplearningmodel深度學(xué)習(xí)的算法主要通過半監(jiān)督式或者非監(jiān)督式的結(jié)構(gòu),將更細(xì)小多元的元素特征進(jìn)行輸入和分析之后對(duì)元素進(jìn)行特征分類和結(jié)構(gòu)劃分。Hinton等在2006年提出神經(jīng)網(wǎng)絡(luò)用于解決更加深層的復(fù)雜結(jié)構(gòu)的問題,在置信網(wǎng)絡(luò)(DBN)的基礎(chǔ)算法上進(jìn)而提出的更加深層次分析的非監(jiān)督逐層訓(xùn)練算法[25]。在此之后,研究者們?cè)贖inton的研究基礎(chǔ)之上陸續(xù)在沈陽(yáng)工業(yè)大學(xué)碩士學(xué)位論文

【參考文獻(xiàn)】:
期刊論文
[1]乳腺癌在螺旋斷層放射治療中的研究進(jìn)展[J]. 張琰曄,李榮清,張勇.  昆明醫(yī)科大學(xué)學(xué)報(bào). 2018(11)
[2]深度學(xué)習(xí)技術(shù)在疾病診斷中的應(yīng)用[J]. 王威,李郁,張文娟,田野,騫愛榮.  第二軍醫(yī)大學(xué)學(xué)報(bào). 2018(08)
[3]基于全卷積神經(jīng)網(wǎng)絡(luò)的肛提肌裂孔智能識(shí)別[J]. 胡鵬輝,王娜,王毅,王慧芳,汪天富,倪東.  深圳大學(xué)學(xué)報(bào)(理工版). 2018(03)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像特征識(shí)別研究[J]. 楊念聰,任瓊,張成喆,周子煜,李倩,邱蘭.  信息與電腦(理論版). 2017(14)
[5]基于棧式去噪自編碼器的遙感圖像分類[J]. 張一飛,陳忠,張峰,歐陽(yáng)超.  計(jì)算機(jī)應(yīng)用. 2016(S2)
[6]基于改進(jìn)ANE的視頻強(qiáng)弱光消除算法[J]. 孫宇曙,張華峰,姜永櫟,虞永方.  電子科技. 2014(07)
[7]深度學(xué)習(xí)研究進(jìn)展[J]. 劉建偉,劉媛,羅雄麟.  計(jì)算機(jī)應(yīng)用研究. 2014(07)
[8]基于自組織原理進(jìn)行圖像分割的研究和應(yīng)用進(jìn)展[J]. 王沛.  電子測(cè)試. 2013(14)
[9]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽(yáng)明,王正.  計(jì)算機(jī)應(yīng)用研究. 2012(08)
[10]一種基于分?jǐn)?shù)階次微積分模板的新型邊緣檢測(cè)方法[J]. 何春,葉永強(qiáng),姜斌,周鑫.  自動(dòng)化學(xué)報(bào). 2012(05)

碩士論文
[1]基于深度學(xué)習(xí)的智能聊天機(jī)器人的研究[D]. 梁苗苗.浙江理工大學(xué) 2018
[2]基于深度卷積神經(jīng)網(wǎng)絡(luò)的視覺物體識(shí)別算法[D]. 孫滿利.天津大學(xué) 2017
[3]基于小波變換的閾值圖像去噪方法[D]. 張慶偉.山東科技大學(xué) 2010



本文編號(hào):2997322

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2997322.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶99360***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com