深度神經(jīng)網(wǎng)絡(luò)解釋與語義特征提取
發(fā)布時間:2021-03-30 10:37
深度神經(jīng)網(wǎng)絡(luò)技術(shù)在近年內(nèi)發(fā)展迅速,在諸多認(rèn)知相關(guān)問題(如圖像識別,語音識別,自然語言理解等)上達(dá)到接近人類的精度,已被廣泛投入實(shí)際應(yīng)用中。然而神經(jīng)網(wǎng)絡(luò)的理論基礎(chǔ),卻尚未有公認(rèn)的解釋,仍然是一個懸而未決的難題。本文從消除語義鴻溝這一思路展開此命題,首先介紹了多種常用的神經(jīng)網(wǎng)絡(luò)解釋算法,完善理論基礎(chǔ)。隨后對傳統(tǒng)及深度特征提取方法進(jìn)行了闡述,揭示了它們在語義信息表現(xiàn)方面的不足。基于這些問題,我們將神經(jīng)網(wǎng)絡(luò)解釋應(yīng)用在語義特征提取上,以提高特征的語義表征能力,進(jìn)而提高檢索系統(tǒng)的性能,并增強(qiáng)其可交互性與可解釋性。在神經(jīng)網(wǎng)絡(luò)解釋部分,我們說明了消除語義鴻溝是神經(jīng)網(wǎng)絡(luò)理解的最終目標(biāo),也是其本質(zhì)所在。并從消除語義鴻溝和神經(jīng)網(wǎng)絡(luò)解釋兩個角度提出了解決問題的方法路線。依照方法路線,我們提出了一種新的算法ICL-CNN,將神經(jīng)網(wǎng)絡(luò)各層的卷積類比成稀疏編碼,將顯著性算法施加在神經(jīng)網(wǎng)絡(luò)的各個卷積層中,結(jié)合了CNN與ICL的優(yōu)勢,合并成物體級別的顯著性圖。在此基礎(chǔ)上,我們用統(tǒng)計方法引入了物體的概念作為顯著性的條件,從而結(jié)合了自頂向下顯著性檢測的優(yōu)勢。我們用此方法揭示深度網(wǎng)絡(luò)各個層次或整體的處理過程。在語義特征提取部...
【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
–1Dropout的示意圖
可能地接近輸入值。反向激活函數(shù):大多數(shù)神經(jīng)網(wǎng)絡(luò)采用 ReLU 激活函數(shù),其逆函數(shù)可直接使用 ReLU 近似。如圖2–4,分別為 AlexNet 和原作者提出的 ZFNet 兩種網(wǎng)絡(luò)結(jié)構(gòu)前兩層的可視化。通過可視化展示,作者發(fā)現(xiàn)了 AlexNet 的缺陷,調(diào)整其網(wǎng)絡(luò)結(jié)構(gòu)提出了 ZFNet,可見這一方法在模型迭代更新方面有很重要的作用。圖 2–4 逆卷積網(wǎng)絡(luò)可視化結(jié)果[26]Fig 2–4 Visualization of DeConvNet2.2.1.2 逆函數(shù)優(yōu)化法逆函數(shù)優(yōu)化法[27]的思路是通過優(yōu)化,得到使待解釋特征圖表征誤差最低的輸入圖像。對特征提取函數(shù)Φ : R R,和目標(biāo)特征 Φ0,優(yōu)化方法的目標(biāo)是找到使誤差最低的輸入 xx = argminx RH W C(Φ(x) Φ0) + ( ) (2–13)其中: R R
2范數(shù)用于約束原圖能量值的大小。對每個卷積核,我們可以根據(jù)神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)計算出它們與原圖之間的梯度關(guān)系,進(jìn)而使用梯度下降法計算出 的大小。如圖2–6,從前向后依次是 VGG16 網(wǎng)絡(luò)從淺層到中間層到深層特征圖的響應(yīng)最大化可視化結(jié)果。在較淺的層次里,可視化圖表示的是邊緣識別的卷積核。逐漸地,圖像變化為細(xì)紋理,簡單圖案,復(fù)雜圖案,最后出現(xiàn)物體的結(jié)構(gòu)等,表示的卷積核功能越來越復(fù)雜。這種可視化方法側(cè)面呈現(xiàn)了神經(jīng)網(wǎng)絡(luò)計算邏輯由淺入深的演化過程,即從簡單的底層圖像處理到機(jī)器語義與知識概念。2.2.3 類別響應(yīng)映射類別響應(yīng)映射 (Class Activation Mapping, CAM) 是一種非常直觀簡便的推導(dǎo)待解釋類在原圖尺度熱度圖的方法,可用于決策可視化和弱監(jiān)督圖像分割,包括原始算法 CAM[30]和延伸算法 Grad-CAM[31]。從消除語義鴻溝上講,CAM 系列方法通過建立機(jī)器語義和概念之間的聯(lián)系來解釋它們。2.2.3.1 原始 CAM 算法對于原始 CAM 算法
本文編號:3109369
【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
–1Dropout的示意圖
可能地接近輸入值。反向激活函數(shù):大多數(shù)神經(jīng)網(wǎng)絡(luò)采用 ReLU 激活函數(shù),其逆函數(shù)可直接使用 ReLU 近似。如圖2–4,分別為 AlexNet 和原作者提出的 ZFNet 兩種網(wǎng)絡(luò)結(jié)構(gòu)前兩層的可視化。通過可視化展示,作者發(fā)現(xiàn)了 AlexNet 的缺陷,調(diào)整其網(wǎng)絡(luò)結(jié)構(gòu)提出了 ZFNet,可見這一方法在模型迭代更新方面有很重要的作用。圖 2–4 逆卷積網(wǎng)絡(luò)可視化結(jié)果[26]Fig 2–4 Visualization of DeConvNet2.2.1.2 逆函數(shù)優(yōu)化法逆函數(shù)優(yōu)化法[27]的思路是通過優(yōu)化,得到使待解釋特征圖表征誤差最低的輸入圖像。對特征提取函數(shù)Φ : R R,和目標(biāo)特征 Φ0,優(yōu)化方法的目標(biāo)是找到使誤差最低的輸入 xx = argminx RH W C(Φ(x) Φ0) + ( ) (2–13)其中: R R
2范數(shù)用于約束原圖能量值的大小。對每個卷積核,我們可以根據(jù)神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)計算出它們與原圖之間的梯度關(guān)系,進(jìn)而使用梯度下降法計算出 的大小。如圖2–6,從前向后依次是 VGG16 網(wǎng)絡(luò)從淺層到中間層到深層特征圖的響應(yīng)最大化可視化結(jié)果。在較淺的層次里,可視化圖表示的是邊緣識別的卷積核。逐漸地,圖像變化為細(xì)紋理,簡單圖案,復(fù)雜圖案,最后出現(xiàn)物體的結(jié)構(gòu)等,表示的卷積核功能越來越復(fù)雜。這種可視化方法側(cè)面呈現(xiàn)了神經(jīng)網(wǎng)絡(luò)計算邏輯由淺入深的演化過程,即從簡單的底層圖像處理到機(jī)器語義與知識概念。2.2.3 類別響應(yīng)映射類別響應(yīng)映射 (Class Activation Mapping, CAM) 是一種非常直觀簡便的推導(dǎo)待解釋類在原圖尺度熱度圖的方法,可用于決策可視化和弱監(jiān)督圖像分割,包括原始算法 CAM[30]和延伸算法 Grad-CAM[31]。從消除語義鴻溝上講,CAM 系列方法通過建立機(jī)器語義和概念之間的聯(lián)系來解釋它們。2.2.3.1 原始 CAM 算法對于原始 CAM 算法
本文編號:3109369
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3109369.html
最近更新
教材專著