基于卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨重建研究
【文章頁數(shù)】:57 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.1具有簡單卷積層的深度學(xué)習(xí)的初始超分辨率模型圖
青島大學(xué)碩士學(xué)位論文3得了優(yōu)于之前傳統(tǒng)方法的性能取得了比較理想的效果,被稱作SR工作的先驅(qū)。作者得出的結(jié)論是,使用更大的卷積神經(jīng)網(wǎng)絡(luò)的卷積核比使用更深的卷積層更好,其結(jié)構(gòu)如圖1.1所示。所以從那時起大部分的研究都開始轉(zhuǎn)向使用更高效的CNN來實現(xiàn)LR圖像和HR圖像之間的端到端映射,....
圖1.2基于特征恢復(fù)的殘差學(xué)習(xí)超分辨網(wǎng)絡(luò)模型圖
青島大學(xué)碩士學(xué)位論文4卷積層的權(quán)重都會進(jìn)行共享以減少要訓(xùn)練的參數(shù),這意味著它們成功地訓(xùn)練了深層的卷積神經(jīng)網(wǎng)絡(luò)并取得了顯著成績,提高了性能。圖1.2基于特征恢復(fù)的殘差學(xué)習(xí)超分辨網(wǎng)絡(luò)模型圖在許多基于深度學(xué)習(xí)的超分辨率算法中,輸入圖像通過三次插值進(jìn)行升采樣,再輸入網(wǎng)絡(luò)。也可以不使用插值....
圖1.3基于密集連接的超分辨模型原理圖
擬合模型。所有這些方法都使用轉(zhuǎn)置或子像素卷積層提取LR空間中的特征并放大最終的LR特征。隨著卷積神經(jīng)網(wǎng)絡(luò)深度的增加,梯度消失的現(xiàn)象愈發(fā)嚴(yán)重甚至開始妨礙網(wǎng)絡(luò)訓(xùn)練。目前有許多方法都集中在解決此問題上。HighwayNetworks[44]利用卷積層之間的各類長短路徑以有效的訓(xùn)練長達(dá)1....
圖2.1網(wǎng)絡(luò)結(jié)構(gòu)圖
青島大學(xué)碩士學(xué)位論文9圖2.1網(wǎng)絡(luò)結(jié)構(gòu)圖2.1.1密集連接的優(yōu)勢如圖2.2所示,特征圖的輸出得到了準(zhǔn)確的演示。公式如下:xl=Hl(|x0,x1,,xl1|),2-(l)xl代表第l層的特征輸入,Hl包括每一對處理層(PReLU激活層與卷積層)的權(quán)重|x0,x1,,xl1|是從第....
本文編號:4013246
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/4013246.html