基于金字塔式GAN與輕量化網(wǎng)絡(luò)知識蒸餾圖像超分辨研究
【文章頁數(shù)】:78 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2.1卷積神經(jīng)網(wǎng)絡(luò)基本框架
安徽大學(xué)碩士學(xué)位論文11圖2.1卷積神經(jīng)網(wǎng)絡(luò)基本框架Fig.2.1BasicFrameworkofConvolutionalNeuralNetwork現(xiàn)在深度卷積神經(jīng)網(wǎng)絡(luò)主要分為三個部:(1)輸入,(2)特征抽取層,(3)分類器(或生成器)。其中輸入端的主要是圖像或特征等信息,深....
圖2.2基本卷積的示意圖
安徽大學(xué)碩士學(xué)位論文11圖2.1卷積神經(jīng)網(wǎng)絡(luò)基本框架Fig.2.1BasicFrameworkofConvolutionalNeuralNetwork現(xiàn)在深度卷積神經(jīng)網(wǎng)絡(luò)主要分為三個部:(1)輸入,(2)特征抽取層,(3)分類器(或生成器)。其中輸入端的主要是圖像或特征等信息,深....
圖2.3VGG網(wǎng)絡(luò)結(jié)構(gòu)
第二章相關(guān)知識12均池化層。池化的作用就是降低特征的維度,提取重要消息。這樣做的作用是防止模型過擬合,提高模型的泛化能力。激活函數(shù):激活函數(shù)是由一些非線性函數(shù)組成,例如Sigmoid,Tanh,ReLU等。如果沒有激活函數(shù),就是和原始感知機一樣沒有隱藏層,是輸入的線性組合。全連接....
圖2.4殘差網(wǎng)絡(luò)Fig.2.4ResidualNetwork
安徽大學(xué)碩士學(xué)位論文13卷積核而不使用5×5、7×7和11×11大卷積核組合,使得網(wǎng)絡(luò)模型簡單明了,而且加深的網(wǎng)絡(luò)結(jié)構(gòu)使得網(wǎng)絡(luò)的性能更加優(yōu)越。這也是后面極深網(wǎng)絡(luò)結(jié)構(gòu)的理論基矗(2)ResNet[23]模型隨著深度網(wǎng)絡(luò)的加深,網(wǎng)絡(luò)的完成任務(wù)的精度不僅沒有提升反而有所降低。主要存在的....
本文編號:3910770
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3910770.html