一種基于GPU的高性能稀疏卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化
【文章頁數(shù)】:9 頁
【部分圖文】:
圖1降維展開方式實(shí)現(xiàn)卷積運(yùn)算Figure1Loweringmethodperformsconvolutionoperation
Figure1Loweringmethodperformsconvolutionoperation圖1降維展開方式實(shí)現(xiàn)卷積運(yùn)算Table1Descriptionofconvolutionparameters表1卷積參數(shù)描述參數(shù)描述N三維輸入特征矩陣批處理任務(wù)的batchsizeM....
圖2直接稀疏卷積Figure2Directsparseconvolution
接稀疏卷積去除了輸入特征矩陣中的數(shù)據(jù)重復(fù)復(fù)制。該算法將卷積核矩陣的規(guī)模擴(kuò)展到輸入矩陣的相同大小。對于延展后的卷積核行展開生成向量Wm,其長度為C×H×W。由于有M個(gè)卷積核,對每一個(gè)卷積核進(jìn)行延展后得到了M×(C×H×W)的權(quán)重矩陣。對于該批次任務(wù)下的輸入矩陣以行展開的方式形成列向....
圖3行壓縮存儲格式Figure3CSRformat
Figure3CSRformat圖3行壓縮存儲格式的行列指針。相比降維方式,直接稀疏卷積更適合在GPU上實(shí)現(xiàn)SCNN。3設(shè)計(jì)與實(shí)現(xiàn)本節(jié)介紹本文所提方法的具體實(shí)現(xiàn)和優(yōu)化。由于權(quán)重刪減后SCNN產(chǎn)生了大量稀疏數(shù)據(jù)結(jié)構(gòu),而傳統(tǒng)的降維方式并不能保證稀疏矩陣卷積的計(jì)算性能,本文采用全新的直....
圖4權(quán)重延展Figure4Weightstretched
的降維方式并不能保證稀疏矩陣卷積的計(jì)算性能,本文采用全新的直接稀疏卷積來替代降維方式,彌補(bǔ)性能損失。除此以外,GPU的體系結(jié)構(gòu)特征需要在實(shí)現(xiàn)過程中對線程映射、任務(wù)分配以及內(nèi)存管理進(jìn)行更多的考慮和優(yōu)化。3.1概述直接稀疏卷積的實(shí)現(xiàn)主要由兩部分組成:(1)數(shù)據(jù)預(yù)處理,主要完成對卷積核....
本文編號:3982862
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3982862.html