可解釋的生物圖像分析算法研究
發(fā)布時間:2021-10-08 21:43
機器學(xué)習(xí)技術(shù)在近年取得了飛速的發(fā)展。在各類機器學(xué)習(xí)算法中,深度學(xué)習(xí)的表現(xiàn)最為突出,這類算法大幅突破了以往傳統(tǒng)機器學(xué)習(xí)算法的性能瓶頸,在各類任務(wù)中達到了似乎于人、甚至超越人類的表現(xiàn)。這使得深度學(xué)習(xí)算法被大幅應(yīng)用在各類任務(wù)中,這其中就包括了醫(yī)學(xué)影像分析任務(wù)。然而,這一性能卓越的算法卻有著天然的缺陷,這一缺陷就是它的“黑箱”特性,即算法的使用者無法理解算法內(nèi)部運行的機制以及算法產(chǎn)生各類響應(yīng)的原因。這一特性的原因在于深度學(xué)習(xí)算法中存在巨量的參數(shù),導(dǎo)致問題維度很高并且過于抽象,從而失去了可解釋性。因此,基于深度網(wǎng)絡(luò)的計算機輔助診斷系統(tǒng)在實際應(yīng)用中遇到了許多困難。現(xiàn)階段算法大幅度應(yīng)用的問題癥結(jié)就在于這些模型本應(yīng)是可解釋的,即模型應(yīng)為醫(yī)生提供可以解釋其診斷的理由。首先,本文針對可解釋性的重要性進行了討論。從原理和目的出發(fā),對現(xiàn)有針對深度學(xué)習(xí)的可解釋性研究進行了歸納分類,并針對具體應(yīng)用,結(jié)合使用場景,說明了可解釋性在生物圖像分析算法的實際應(yīng)用中是極為重要的。其次,本文提出了一個具備視覺上可解釋性的深度網(wǎng)絡(luò)結(jié)構(gòu),記作VINet,該網(wǎng)絡(luò)可以在做出準(zhǔn)確診斷的同時生成診斷的可視化解釋。VINet是一個由重要性...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:60 頁
【學(xué)位級別】:碩士
【部分圖文】:
可視化解釋對醫(yī)生診斷過程的幫助Fig.1-1Visualinterpretationhelpsadoctortogiveafaithfulfinaldiagnosis
第1章緒論81.2.2.1解釋模型本身的可解釋性研究作為一種解釋深度模型的里程碑方法,反卷積網(wǎng)絡(luò)[13]最初是為無監(jiān)督學(xué)習(xí)任務(wù)而設(shè)計的,Zeiler等人[12]使用連接到卷積網(wǎng)絡(luò)上的反卷積網(wǎng)絡(luò)將中間層的特征激活投影到了輸入空間上。更具體地說,為了可視化一個已經(jīng)訓(xùn)練好的模型來觀察這個模型各層各個濾波器到底學(xué)習(xí)到了什么表征,首先需要做前向傳播,然后對前向傳播操作中各個濾波器產(chǎn)生的特征圖進行重復(fù)的反池化,糾正和反卷積,直到特征圖和輸入圖像具有相同的分辨率,從而識別出最能激活某個神經(jīng)元的模式。在反池化操作中,提出了switches概念,用于記住卷積網(wǎng)絡(luò)中的最大值池化里最大值的具體位置,方便反池化的時候進行計算。如此,最終得到的重建結(jié)果就可以表現(xiàn)出原輸入圖像中哪個部分能最大程度的引起特定濾波器的激活,其效果如圖1-2所示。反卷積方法有一定的局限性:反卷積方法依賴于輸入圖像,即輸入圖像必須先進行前向傳播。這個局限性導(dǎo)致了各個濾波器的可視化結(jié)果并不是真正意義上網(wǎng)絡(luò)模型學(xué)習(xí)到的特征,而是依賴于某個輸入圖像的特定模式。Guidedpropagation[11]對Zeiler[12]的反卷積網(wǎng)絡(luò)進行了改進。首先使用步幅大于2的卷積核代替了最大值池化層,從而省去了switches結(jié)構(gòu),如此便使得網(wǎng)絡(luò)不再依賴于輸入數(shù)據(jù)前向傳播來分析各個濾波器學(xué)習(xí)到的特征。在實驗中他們證明了這種代替對于網(wǎng)絡(luò)性能基本沒有影響。除此之外,解釋模型的另一種方法是在數(shù)據(jù)集中找到可以使深度網(wǎng)絡(luò)中較高層的神經(jīng)元激活最大化特定的輸入圖像實例,例如R.圖1-2使用反卷積方法對深度網(wǎng)絡(luò)不同卷積層濾波器可視化的結(jié)果Fig.1-2Visualizationresultsofdeconvolutionmethodonfiltersindifferentlayers
第1章緒論9Girshick[16]和D.Erhan[17]的工作。上述算法都著力于提升深度模型的透明度,即著力于可視化深度模型在訓(xùn)練后具體學(xué)到的特征。1.2.2.2解釋模型決策的可解釋性研究另一些算法著力于解釋模型的具體決策以提升深度網(wǎng)絡(luò)的可解釋性。Zeiler等人[12]遮擋部分圖像后對正確分類的概率做可視化分析。一些研究[18,19]借鑒了該方法來量化每個輸入分量對輸出的具體影響。通過分析這些預(yù)測結(jié)果上的差異,可以將每個輸入成分的重要性可視化為熱力圖,其效果如圖1-3所示。該方法的主要思想為通過輸入對輸出的影響程度來對輸入中的每一個特征分量進行打分,通過對打分進行可視化,最終針對圖片輸入形成一張熱力圖。具體內(nèi)容如下式所述:()=()(\)(1-8)其中x是輸入圖像,是輸入圖像x的第i個分量。除此之外還存在一些基于靈敏度的方法,這些方法使用偏導(dǎo)數(shù)來計算輸入成分對分類決策的貢獻[20,21,22]。類別激活圖[23](ClassActivationMap,CAM)和梯度加權(quán)類別激活圖[24](GradientClassActivationMap,GradCAM)構(gòu)建特征圖的加權(quán)和作為可視化結(jié)果。這兩種方法的根本區(qū)別在于權(quán)重的獲取方式。前者使用全局平均池化直接獲得權(quán)重,而后者使用梯度作為權(quán)重。然而這兩種方法都無法產(chǎn)生高分辨率,細(xì)粒度的結(jié)果。逐層相關(guān)性傳播[15](Layer-wiserelevancepropagation,LRP)方法在不使用梯度的情況下將深度網(wǎng)絡(luò)預(yù)測結(jié)果反向傳播至輸入控件中。該方法從上到下地計算了預(yù)測結(jié)果與每個神經(jīng)元之間的相關(guān)性,并依次獲得輸入圖像中每個像素對分類器預(yù)測的貢獻。Samek等人[25]比較了反卷積方法,基于靈敏度的方法和逐層相關(guān)性傳播算法,在解釋深度網(wǎng)絡(luò)決策時,逐層相關(guān)性傳播算法的表現(xiàn)優(yōu)于其圖1-3使用敏感度分析對GoogLeNet的三個不同卷積層特征圖的可視化?
本文編號:3425018
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:60 頁
【學(xué)位級別】:碩士
【部分圖文】:
可視化解釋對醫(yī)生診斷過程的幫助Fig.1-1Visualinterpretationhelpsadoctortogiveafaithfulfinaldiagnosis
第1章緒論81.2.2.1解釋模型本身的可解釋性研究作為一種解釋深度模型的里程碑方法,反卷積網(wǎng)絡(luò)[13]最初是為無監(jiān)督學(xué)習(xí)任務(wù)而設(shè)計的,Zeiler等人[12]使用連接到卷積網(wǎng)絡(luò)上的反卷積網(wǎng)絡(luò)將中間層的特征激活投影到了輸入空間上。更具體地說,為了可視化一個已經(jīng)訓(xùn)練好的模型來觀察這個模型各層各個濾波器到底學(xué)習(xí)到了什么表征,首先需要做前向傳播,然后對前向傳播操作中各個濾波器產(chǎn)生的特征圖進行重復(fù)的反池化,糾正和反卷積,直到特征圖和輸入圖像具有相同的分辨率,從而識別出最能激活某個神經(jīng)元的模式。在反池化操作中,提出了switches概念,用于記住卷積網(wǎng)絡(luò)中的最大值池化里最大值的具體位置,方便反池化的時候進行計算。如此,最終得到的重建結(jié)果就可以表現(xiàn)出原輸入圖像中哪個部分能最大程度的引起特定濾波器的激活,其效果如圖1-2所示。反卷積方法有一定的局限性:反卷積方法依賴于輸入圖像,即輸入圖像必須先進行前向傳播。這個局限性導(dǎo)致了各個濾波器的可視化結(jié)果并不是真正意義上網(wǎng)絡(luò)模型學(xué)習(xí)到的特征,而是依賴于某個輸入圖像的特定模式。Guidedpropagation[11]對Zeiler[12]的反卷積網(wǎng)絡(luò)進行了改進。首先使用步幅大于2的卷積核代替了最大值池化層,從而省去了switches結(jié)構(gòu),如此便使得網(wǎng)絡(luò)不再依賴于輸入數(shù)據(jù)前向傳播來分析各個濾波器學(xué)習(xí)到的特征。在實驗中他們證明了這種代替對于網(wǎng)絡(luò)性能基本沒有影響。除此之外,解釋模型的另一種方法是在數(shù)據(jù)集中找到可以使深度網(wǎng)絡(luò)中較高層的神經(jīng)元激活最大化特定的輸入圖像實例,例如R.圖1-2使用反卷積方法對深度網(wǎng)絡(luò)不同卷積層濾波器可視化的結(jié)果Fig.1-2Visualizationresultsofdeconvolutionmethodonfiltersindifferentlayers
第1章緒論9Girshick[16]和D.Erhan[17]的工作。上述算法都著力于提升深度模型的透明度,即著力于可視化深度模型在訓(xùn)練后具體學(xué)到的特征。1.2.2.2解釋模型決策的可解釋性研究另一些算法著力于解釋模型的具體決策以提升深度網(wǎng)絡(luò)的可解釋性。Zeiler等人[12]遮擋部分圖像后對正確分類的概率做可視化分析。一些研究[18,19]借鑒了該方法來量化每個輸入分量對輸出的具體影響。通過分析這些預(yù)測結(jié)果上的差異,可以將每個輸入成分的重要性可視化為熱力圖,其效果如圖1-3所示。該方法的主要思想為通過輸入對輸出的影響程度來對輸入中的每一個特征分量進行打分,通過對打分進行可視化,最終針對圖片輸入形成一張熱力圖。具體內(nèi)容如下式所述:()=()(\)(1-8)其中x是輸入圖像,是輸入圖像x的第i個分量。除此之外還存在一些基于靈敏度的方法,這些方法使用偏導(dǎo)數(shù)來計算輸入成分對分類決策的貢獻[20,21,22]。類別激活圖[23](ClassActivationMap,CAM)和梯度加權(quán)類別激活圖[24](GradientClassActivationMap,GradCAM)構(gòu)建特征圖的加權(quán)和作為可視化結(jié)果。這兩種方法的根本區(qū)別在于權(quán)重的獲取方式。前者使用全局平均池化直接獲得權(quán)重,而后者使用梯度作為權(quán)重。然而這兩種方法都無法產(chǎn)生高分辨率,細(xì)粒度的結(jié)果。逐層相關(guān)性傳播[15](Layer-wiserelevancepropagation,LRP)方法在不使用梯度的情況下將深度網(wǎng)絡(luò)預(yù)測結(jié)果反向傳播至輸入控件中。該方法從上到下地計算了預(yù)測結(jié)果與每個神經(jīng)元之間的相關(guān)性,并依次獲得輸入圖像中每個像素對分類器預(yù)測的貢獻。Samek等人[25]比較了反卷積方法,基于靈敏度的方法和逐層相關(guān)性傳播算法,在解釋深度網(wǎng)絡(luò)決策時,逐層相關(guān)性傳播算法的表現(xiàn)優(yōu)于其圖1-3使用敏感度分析對GoogLeNet的三個不同卷積層特征圖的可視化?
本文編號:3425018
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3425018.html
最近更新
教材專著