基于異構(gòu)處理器的深度卷積神經(jīng)網(wǎng)絡(luò)加速系統(tǒng)設(shè)計與實(shí)現(xiàn)
發(fā)布時間:2021-09-18 07:18
基于深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network,DCNN)的深度學(xué)習(xí)算法在圖像分類、視頻分析和語音識別等眾多應(yīng)用中顯示出優(yōu)于傳統(tǒng)算法的巨大優(yōu)勢。DCNN的工作原理是對輸入網(wǎng)絡(luò)中的圖片,由多個卷積層從輸入數(shù)據(jù)中提取特征,然后經(jīng)過分類層判斷,最終得到輸出結(jié)果。由于卷積層與全連接層是計算密集型運(yùn)算,因此DCNN很難在低功耗的系統(tǒng)中實(shí)現(xiàn)實(shí)時的分類效果。本文基于開放運(yùn)算語言(Open Computing Language,OpenCL)異構(gòu)并行計算框架提出了一種針對低成本、低功耗SoC-FPGA的深度卷積神經(jīng)網(wǎng)絡(luò)加速系統(tǒng)。本文首先對DCNN的計算復(fù)雜度和并行度進(jìn)行了分析,然后在OpenCL異構(gòu)并行計算框架下,設(shè)計了卷積、池化、局部響應(yīng)歸一化、數(shù)據(jù)傳入與數(shù)據(jù)傳出五個具有特殊數(shù)據(jù)重用和任務(wù)映射方案的加速內(nèi)核,由AlteraOpenCL擴(kuò)展管道連接構(gòu)成一個深度流水線結(jié)構(gòu),可以執(zhí)行一系列基本的CNN運(yùn)算,而無需再將層間數(shù)據(jù)存儲回外部存儲器中。這種深度流水結(jié)構(gòu)能顯著減少對SoC-FPGA至關(guān)重要的內(nèi)存帶寬需求。本文最終的設(shè)計是在Cyclone-VSoC-FPGA硬...
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-2將三維卷積映射成矩陣乘法示意圖[18]??Figure?1-2?Sketch?map?of?mapping?3D?convolutions?to?matrix?multiplications^1^??
決問題的方法,端到端的方式具有協(xié)同增效[21]的優(yōu)勢,有更大可能獲得全局最優(yōu)??解。??深度卷積神經(jīng)網(wǎng)絡(luò)的基本流程圖如圖2-2所示,對卷積神經(jīng)網(wǎng)絡(luò)模型而言,其??輸入數(shù)據(jù)是未經(jīng)任何人為加工的原始樣本形式,后續(xù)則是堆疊在輸入層上的眾多??操作層。這些操作層整體可看作一個復(fù)雜的函數(shù),最終損失函數(shù)由數(shù)據(jù)損失??和模型參數(shù)的正則化損失共同組成,深度模型的訓(xùn)練則在最終損失驅(qū)動下對模型??進(jìn)行參數(shù)更新并將誤差反向傳播至網(wǎng)絡(luò)各層。模型的訓(xùn)練過程可以簡單抽象為從??原始數(shù)據(jù)向最終目標(biāo)的直接擬合,而中間的這些部件正起到了將原始數(shù)據(jù)映射為??特征隨后再映射為樣本標(biāo)記的作用。??正則損失(Regukrization?】oss)??__?一?廠丨門i??J?|?1?£?^?11?|?Rr?V:?J?^?J?S?N?i?I__.?I??_?'??——,??數(shù)據(jù)損失(Data?loss)??圖2-2深度卷積神經(jīng)網(wǎng)絡(luò)的基本流程圖??Figure?2-2?The?basic?flow?chart?of?deep?convolutional?neural?networks??深度卷積神經(jīng)網(wǎng)絡(luò)由多個卷積層、歸一化、池化和非線性激活函數(shù)相互作用。??9??
時僅需指定池化類型(average或max等)、池化操作的核大。ǎ耄澹颍睿澹?size)和池??化操作的步長(stride)等超參數(shù)即可。??下圖2-4為kernel?size為2?X?2,?stride為1的最大值池化計算示意圖。??III,—「丨??1?3?5?7?9?\?1?3?5?7?9?乂?\??24680?4?24680?4/669]??3?1?2?4?7?3?1?2?47?^687/??8?9?3?4?6?89?3?46?9947/??6?3?5?2?1?6352?1?9956*??3)第一次最大池化計算與得到的特征?b)第十六次最大池化計算與得到的特征??圖2-4最大值池化計算過程示意圖??Figure?2-4?Sketch?map?of?maxpooling?operation?process??池化層的引入是仿照人的視覺系統(tǒng)對視覺輸入進(jìn)行降維和抽象的過程。池化??層有如下三種作用:??(1)
【參考文獻(xiàn)】:
期刊論文
[1]卷積神經(jīng)網(wǎng)絡(luò)及其研究進(jìn)展[J]. 翟俊海,張素芳,郝璞. 河北大學(xué)學(xué)報(自然科學(xué)版). 2017(06)
[2]基于開源虛擬桌面的嵌入式實(shí)驗(yàn)平臺[J]. 吳闋,陳云芳. 計算機(jī)教育. 2017(09)
[3]分層視覺特征感知在目標(biāo)識別中的應(yīng)用[J]. 片兆宇,史天予,袁德鵬,胡玉蘭,王棟. 計算機(jī)輔助設(shè)計與圖形學(xué)學(xué)報. 2017(06)
[4]基于高級綜合技術(shù)的RS算法實(shí)現(xiàn)[J]. 王歡,李斌,張磊. 中國集成電路. 2016(11)
[5]SoC FPGA的視覺算法加速系統(tǒng)設(shè)計[J]. 吳良晶,曹云峰,丁萌,莊麗葵. 單片機(jī)與嵌入式系統(tǒng)應(yīng)用. 2016(11)
[6]深度學(xué)習(xí):多層神經(jīng)網(wǎng)絡(luò)的復(fù)興與變革[J]. 山世光,闞美娜,劉昕,劉夢怡,鄔書哲. 科技導(dǎo)報. 2016(14)
[7]改進(jìn)的超越函數(shù)分段線性逼近方法[J]. 田征,杜慧敏,黃小康. 計算機(jī)應(yīng)用. 2016(07)
[8]嵌入式系統(tǒng)節(jié)能能力度量模型研究[J]. 羅殊彥,朱怡安,王偉超. 西北工業(yè)大學(xué)學(xué)報. 2016(03)
[9]GPU通用計算軟硬件處理架構(gòu)研究[J]. 謝建春. 航空計算技術(shù). 2013(02)
本文編號:3399720
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-2將三維卷積映射成矩陣乘法示意圖[18]??Figure?1-2?Sketch?map?of?mapping?3D?convolutions?to?matrix?multiplications^1^??
決問題的方法,端到端的方式具有協(xié)同增效[21]的優(yōu)勢,有更大可能獲得全局最優(yōu)??解。??深度卷積神經(jīng)網(wǎng)絡(luò)的基本流程圖如圖2-2所示,對卷積神經(jīng)網(wǎng)絡(luò)模型而言,其??輸入數(shù)據(jù)是未經(jīng)任何人為加工的原始樣本形式,后續(xù)則是堆疊在輸入層上的眾多??操作層。這些操作層整體可看作一個復(fù)雜的函數(shù),最終損失函數(shù)由數(shù)據(jù)損失??和模型參數(shù)的正則化損失共同組成,深度模型的訓(xùn)練則在最終損失驅(qū)動下對模型??進(jìn)行參數(shù)更新并將誤差反向傳播至網(wǎng)絡(luò)各層。模型的訓(xùn)練過程可以簡單抽象為從??原始數(shù)據(jù)向最終目標(biāo)的直接擬合,而中間的這些部件正起到了將原始數(shù)據(jù)映射為??特征隨后再映射為樣本標(biāo)記的作用。??正則損失(Regukrization?】oss)??__?一?廠丨門i??J?|?1?£?^?11?|?Rr?V:?J?^?J?S?N?i?I__.?I??_?'??——,??數(shù)據(jù)損失(Data?loss)??圖2-2深度卷積神經(jīng)網(wǎng)絡(luò)的基本流程圖??Figure?2-2?The?basic?flow?chart?of?deep?convolutional?neural?networks??深度卷積神經(jīng)網(wǎng)絡(luò)由多個卷積層、歸一化、池化和非線性激活函數(shù)相互作用。??9??
時僅需指定池化類型(average或max等)、池化操作的核大。ǎ耄澹颍睿澹?size)和池??化操作的步長(stride)等超參數(shù)即可。??下圖2-4為kernel?size為2?X?2,?stride為1的最大值池化計算示意圖。??III,—「丨??1?3?5?7?9?\?1?3?5?7?9?乂?\??24680?4?24680?4/669]??3?1?2?4?7?3?1?2?47?^687/??8?9?3?4?6?89?3?46?9947/??6?3?5?2?1?6352?1?9956*??3)第一次最大池化計算與得到的特征?b)第十六次最大池化計算與得到的特征??圖2-4最大值池化計算過程示意圖??Figure?2-4?Sketch?map?of?maxpooling?operation?process??池化層的引入是仿照人的視覺系統(tǒng)對視覺輸入進(jìn)行降維和抽象的過程。池化??層有如下三種作用:??(1)
【參考文獻(xiàn)】:
期刊論文
[1]卷積神經(jīng)網(wǎng)絡(luò)及其研究進(jìn)展[J]. 翟俊海,張素芳,郝璞. 河北大學(xué)學(xué)報(自然科學(xué)版). 2017(06)
[2]基于開源虛擬桌面的嵌入式實(shí)驗(yàn)平臺[J]. 吳闋,陳云芳. 計算機(jī)教育. 2017(09)
[3]分層視覺特征感知在目標(biāo)識別中的應(yīng)用[J]. 片兆宇,史天予,袁德鵬,胡玉蘭,王棟. 計算機(jī)輔助設(shè)計與圖形學(xué)學(xué)報. 2017(06)
[4]基于高級綜合技術(shù)的RS算法實(shí)現(xiàn)[J]. 王歡,李斌,張磊. 中國集成電路. 2016(11)
[5]SoC FPGA的視覺算法加速系統(tǒng)設(shè)計[J]. 吳良晶,曹云峰,丁萌,莊麗葵. 單片機(jī)與嵌入式系統(tǒng)應(yīng)用. 2016(11)
[6]深度學(xué)習(xí):多層神經(jīng)網(wǎng)絡(luò)的復(fù)興與變革[J]. 山世光,闞美娜,劉昕,劉夢怡,鄔書哲. 科技導(dǎo)報. 2016(14)
[7]改進(jìn)的超越函數(shù)分段線性逼近方法[J]. 田征,杜慧敏,黃小康. 計算機(jī)應(yīng)用. 2016(07)
[8]嵌入式系統(tǒng)節(jié)能能力度量模型研究[J]. 羅殊彥,朱怡安,王偉超. 西北工業(yè)大學(xué)學(xué)報. 2016(03)
[9]GPU通用計算軟硬件處理架構(gòu)研究[J]. 謝建春. 航空計算技術(shù). 2013(02)
本文編號:3399720
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/3399720.html
最近更新
教材專著