融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)
【文章頁(yè)數(shù)】:69 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-2卷積運(yùn)算
融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)12后還需添加偏置則可以得到輸出矩陣。圖2-2卷積運(yùn)算2.2.3激勵(lì)層激勵(lì)層的作用可以理解為對(duì)卷積層的輸出結(jié)果做一次非線性映射。其實(shí)激勵(lì)函數(shù)就相當(dāng)于f(x)=x,而當(dāng)神經(jīng)網(wǎng)絡(luò)缺少激勵(lì)函數(shù),每一層的輸出都是上一層輸入的線性函數(shù)。分析可知,無論有多少神經(jīng)網(wǎng)....
圖2-3激勵(lì)函數(shù)
融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)12后還需添加偏置則可以得到輸出矩陣。圖2-2卷積運(yùn)算2.2.3激勵(lì)層激勵(lì)層的作用可以理解為對(duì)卷積層的輸出結(jié)果做一次非線性映射。其實(shí)激勵(lì)函數(shù)就相當(dāng)于f(x)=x,而當(dāng)神經(jīng)網(wǎng)絡(luò)缺少激勵(lì)函數(shù),每一層的輸出都是上一層輸入的線性函數(shù)。分析可知,無論有多少神經(jīng)網(wǎng)....
圖2-4最大池化
融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)132.2.4池化層池化(Pooling),也稱為欠采樣或下采樣,其作用是用于各個(gè)特征圖的降維,同時(shí)還能保留大部分重要信息。連續(xù)的卷積層中穿插著池化層,它不僅可以壓縮模型的參數(shù)數(shù)量,還可以防止過擬合,同時(shí)提高模型的容錯(cuò)性。最為常用的方法有:最大池化(M....
圖2-5全連接層
融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)14最后可能出現(xiàn)過擬合,為了避免出現(xiàn)過擬合引入Dropout操作,通過隨機(jī)刪除神經(jīng)網(wǎng)絡(luò)中的部分神經(jīng)元來解決問題。還可以利用局部歸一化(LRN)、數(shù)據(jù)增強(qiáng)等操作,來加強(qiáng)模型的魯棒性,提高模型的整體性能。全連接層可以整合卷積層和池化層中具有類別區(qū)分性的局部....
本文編號(hào):3903558
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3903558.html