基于卷積神經(jīng)網(wǎng)絡(luò)和多尺度特征融合的骨齡評估方法研究
發(fā)布時(shí)間:2021-12-19 10:45
骨齡評估通過骨骼發(fā)育形態(tài)推斷兒童生長的實(shí)際情況,具有很多臨床應(yīng)用,例如診斷內(nèi)分泌疾病和預(yù)測青少年最終的成年身高等。骨齡評估方法根據(jù)發(fā)展的歷程可以分為:基于人工估計(jì)的方法、基于傳統(tǒng)機(jī)器學(xué)習(xí)的方法和基于深度學(xué)習(xí)的方法。前兩種方法非常依賴臨床醫(yī)師的經(jīng)驗(yàn)和手工特征的設(shè)計(jì),對方法應(yīng)用的普及具有很大的約束。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,其強(qiáng)大的數(shù)據(jù)表達(dá)能力引起人們的廣泛關(guān)注。基于深度學(xué)習(xí)的骨齡評估方法成為醫(yī)學(xué)圖像分析領(lǐng)域的一個(gè)活躍的方向。由于骨齡評估是一個(gè)小數(shù)據(jù)集的識別任務(wù),它無法為神經(jīng)網(wǎng)絡(luò)提供豐富的訓(xùn)練樣本。因此,如何在小樣本的情況下獲取合格的網(wǎng)絡(luò)模型成為當(dāng)前發(fā)展的一個(gè)嚴(yán)重挑戰(zhàn)。針對骨齡評估任務(wù)中存在的問題,本文提出了一種基于非下采樣輪廓波變換和卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的X-ray圖像多尺度數(shù)據(jù)融合框架。現(xiàn)有的基于卷積神經(jīng)網(wǎng)絡(luò)的骨齡評估方法直接采用原始空間圖像作為網(wǎng)絡(luò)的輸入數(shù)據(jù),這種方法需要大量的空間域圖像作為訓(xùn)練樣本。本文通過執(zhí)行非下采樣輪廓波變換對輸入圖像進(jìn)行預(yù)處理,提取出豐富的特征集合,獲得其多尺度、多方向上的表示。由于骨齡評估任務(wù)中標(biāo)簽樣例的數(shù)量非常有限,將這些特征作為網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù),在一定程度上緩...
【文章來源】:合肥工業(yè)大學(xué)安徽省 211工程院校 教育部直屬院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
Sigmoid激活函數(shù)Fig2.4Sigmoidactivationfunction
第二章相關(guān)理論基礎(chǔ)14圖2.5Tanh激活函數(shù)Fig2.5Tanhactivationfunction如圖2.5所示,Tanh激活函數(shù)的曲線圖與Sigmoid激活函數(shù)的圖像非常相似,不同之處在于函數(shù)的輸出范圍。Tanh激活函數(shù)將輸入的數(shù)據(jù)映射到[-1,1]中,解決了Sigmoid激活函數(shù)的輸出不是以0為中心的問題。但是Tanh激活函數(shù)在0點(diǎn)附近的曲線非常陡,這使參數(shù)優(yōu)化過程中容易出現(xiàn)梯度消失的現(xiàn)象。針對Tanh激活函數(shù)曲線兩個(gè)近似極端的表現(xiàn),一般在二分類問題中使用的比較多。(3)ReLU激活函數(shù)ReLU激活函數(shù)的數(shù)學(xué)形式如下:(2.5)ReLU激活函數(shù)的幾何形式如下:圖2.6ReLU激活函數(shù)Fig2.6ReLUactivationfunction如圖2.6所示,ReLU激活函數(shù)是目前使用最廣泛的激活函數(shù)。從函數(shù)表示中可以得知,ReLU激活函數(shù)實(shí)際上就是一個(gè)取最大值的函數(shù)。當(dāng)輸入大于0時(shí),ReLU激活函數(shù)的導(dǎo)數(shù)始終為1,這就不會衰減或增大反向傳播的誤差,從而克服了梯度爆炸的問題。當(dāng)輸入小于0時(shí),ReLU激活函數(shù)的導(dǎo)數(shù)為0,這就導(dǎo)致參數(shù)始終不能跳出0值,導(dǎo)致很多神經(jīng)元的‘死亡’。但是在一定程度上,這種方式又增加了網(wǎng)絡(luò)的稀疏ReLU=max(0,x),
第二章相關(guān)理論基礎(chǔ)14圖2.5Tanh激活函數(shù)Fig2.5Tanhactivationfunction如圖2.5所示,Tanh激活函數(shù)的曲線圖與Sigmoid激活函數(shù)的圖像非常相似,不同之處在于函數(shù)的輸出范圍。Tanh激活函數(shù)將輸入的數(shù)據(jù)映射到[-1,1]中,解決了Sigmoid激活函數(shù)的輸出不是以0為中心的問題。但是Tanh激活函數(shù)在0點(diǎn)附近的曲線非常陡,這使參數(shù)優(yōu)化過程中容易出現(xiàn)梯度消失的現(xiàn)象。針對Tanh激活函數(shù)曲線兩個(gè)近似極端的表現(xiàn),一般在二分類問題中使用的比較多。(3)ReLU激活函數(shù)ReLU激活函數(shù)的數(shù)學(xué)形式如下:(2.5)ReLU激活函數(shù)的幾何形式如下:圖2.6ReLU激活函數(shù)Fig2.6ReLUactivationfunction如圖2.6所示,ReLU激活函數(shù)是目前使用最廣泛的激活函數(shù)。從函數(shù)表示中可以得知,ReLU激活函數(shù)實(shí)際上就是一個(gè)取最大值的函數(shù)。當(dāng)輸入大于0時(shí),ReLU激活函數(shù)的導(dǎo)數(shù)始終為1,這就不會衰減或增大反向傳播的誤差,從而克服了梯度爆炸的問題。當(dāng)輸入小于0時(shí),ReLU激活函數(shù)的導(dǎo)數(shù)為0,這就導(dǎo)致參數(shù)始終不能跳出0值,導(dǎo)致很多神經(jīng)元的‘死亡’。但是在一定程度上,這種方式又增加了網(wǎng)絡(luò)的稀疏ReLU=max(0,x),
【參考文獻(xiàn)】:
期刊論文
[1]青少年運(yùn)動員比賽按骨齡分組科學(xué)性的探析[J]. 孫寧,姚瑩瑩,王瓊. 浙江體育科學(xué). 2012(06)
本文編號:3544278
【文章來源】:合肥工業(yè)大學(xué)安徽省 211工程院校 教育部直屬院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
Sigmoid激活函數(shù)Fig2.4Sigmoidactivationfunction
第二章相關(guān)理論基礎(chǔ)14圖2.5Tanh激活函數(shù)Fig2.5Tanhactivationfunction如圖2.5所示,Tanh激活函數(shù)的曲線圖與Sigmoid激活函數(shù)的圖像非常相似,不同之處在于函數(shù)的輸出范圍。Tanh激活函數(shù)將輸入的數(shù)據(jù)映射到[-1,1]中,解決了Sigmoid激活函數(shù)的輸出不是以0為中心的問題。但是Tanh激活函數(shù)在0點(diǎn)附近的曲線非常陡,這使參數(shù)優(yōu)化過程中容易出現(xiàn)梯度消失的現(xiàn)象。針對Tanh激活函數(shù)曲線兩個(gè)近似極端的表現(xiàn),一般在二分類問題中使用的比較多。(3)ReLU激活函數(shù)ReLU激活函數(shù)的數(shù)學(xué)形式如下:(2.5)ReLU激活函數(shù)的幾何形式如下:圖2.6ReLU激活函數(shù)Fig2.6ReLUactivationfunction如圖2.6所示,ReLU激活函數(shù)是目前使用最廣泛的激活函數(shù)。從函數(shù)表示中可以得知,ReLU激活函數(shù)實(shí)際上就是一個(gè)取最大值的函數(shù)。當(dāng)輸入大于0時(shí),ReLU激活函數(shù)的導(dǎo)數(shù)始終為1,這就不會衰減或增大反向傳播的誤差,從而克服了梯度爆炸的問題。當(dāng)輸入小于0時(shí),ReLU激活函數(shù)的導(dǎo)數(shù)為0,這就導(dǎo)致參數(shù)始終不能跳出0值,導(dǎo)致很多神經(jīng)元的‘死亡’。但是在一定程度上,這種方式又增加了網(wǎng)絡(luò)的稀疏ReLU=max(0,x),
第二章相關(guān)理論基礎(chǔ)14圖2.5Tanh激活函數(shù)Fig2.5Tanhactivationfunction如圖2.5所示,Tanh激活函數(shù)的曲線圖與Sigmoid激活函數(shù)的圖像非常相似,不同之處在于函數(shù)的輸出范圍。Tanh激活函數(shù)將輸入的數(shù)據(jù)映射到[-1,1]中,解決了Sigmoid激活函數(shù)的輸出不是以0為中心的問題。但是Tanh激活函數(shù)在0點(diǎn)附近的曲線非常陡,這使參數(shù)優(yōu)化過程中容易出現(xiàn)梯度消失的現(xiàn)象。針對Tanh激活函數(shù)曲線兩個(gè)近似極端的表現(xiàn),一般在二分類問題中使用的比較多。(3)ReLU激活函數(shù)ReLU激活函數(shù)的數(shù)學(xué)形式如下:(2.5)ReLU激活函數(shù)的幾何形式如下:圖2.6ReLU激活函數(shù)Fig2.6ReLUactivationfunction如圖2.6所示,ReLU激活函數(shù)是目前使用最廣泛的激活函數(shù)。從函數(shù)表示中可以得知,ReLU激活函數(shù)實(shí)際上就是一個(gè)取最大值的函數(shù)。當(dāng)輸入大于0時(shí),ReLU激活函數(shù)的導(dǎo)數(shù)始終為1,這就不會衰減或增大反向傳播的誤差,從而克服了梯度爆炸的問題。當(dāng)輸入小于0時(shí),ReLU激活函數(shù)的導(dǎo)數(shù)為0,這就導(dǎo)致參數(shù)始終不能跳出0值,導(dǎo)致很多神經(jīng)元的‘死亡’。但是在一定程度上,這種方式又增加了網(wǎng)絡(luò)的稀疏ReLU=max(0,x),
【參考文獻(xiàn)】:
期刊論文
[1]青少年運(yùn)動員比賽按骨齡分組科學(xué)性的探析[J]. 孫寧,姚瑩瑩,王瓊. 浙江體育科學(xué). 2012(06)
本文編號:3544278
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3544278.html
最近更新
教材專著