天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動(dòng)化論文 >

面向FPGA的深度學(xué)習(xí)硬件化方法優(yōu)化與實(shí)現(xiàn)

發(fā)布時(shí)間:2021-07-06 09:12
  卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)中的熱門算法之一,在許多計(jì)算機(jī)視覺應(yīng)用中取得了巨大的成功,如圖像識(shí)別,語音識(shí)別。近年來,隨著卷積神經(jīng)網(wǎng)絡(luò)識(shí)別精度的不斷提升,它的計(jì)算復(fù)雜性也在大幅增加。由于CPU已經(jīng)很難滿足現(xiàn)代CNN對(duì)高并行度計(jì)算的需求,各種基于GPU、FPGA、ASIC的卷積神經(jīng)網(wǎng)絡(luò)加速器都陸續(xù)得以實(shí)現(xiàn)。在這些加速器中,FPGA憑借它強(qiáng)大的可重構(gòu)能力和低能耗成為了加速器設(shè)計(jì)中備受歡迎的研究平臺(tái)。之前基于FPGA的卷積神經(jīng)網(wǎng)絡(luò)加速器主要是使用傳統(tǒng)的卷積算法。然而,傳統(tǒng)的卷積算法的高算術(shù)復(fù)雜度限制了加速器的性能,并且顯著增加了設(shè)計(jì)的難度。已有工作證明,將Winograd算法應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)中,可以有效地降低計(jì)算復(fù)雜度。雖然已有工作實(shí)現(xiàn)了基于Winograd算法的加速器,但他們的工作缺少不同規(guī)模Winograd算法實(shí)現(xiàn)的加速器的性能對(duì)比。在本文中,我們首先提出一種適用于卷積層和完全連接層的加速器體系結(jié)構(gòu)。其次,我們使用高級(jí)綜合工具來實(shí)現(xiàn)了我們的設(shè)計(jì)。最后,我們?cè)u(píng)估了基于兩個(gè)不同規(guī)模Winograd算法實(shí)現(xiàn)的加速器在資源利用率,性能和效率方面的表現(xiàn)。在VUS440平臺(tái)上,我們測(cè)試了VGG16模型,... 

【文章來源】:國防科技大學(xué)湖南省 211工程院校 985工程院校

【文章頁數(shù)】:65 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

面向FPGA的深度學(xué)習(xí)硬件化方法優(yōu)化與實(shí)現(xiàn)


FPGA集群的拓?fù)浣Y(jié)構(gòu)[27]

過程圖,卷積,神經(jīng)網(wǎng)絡(luò),過程


國防科技大學(xué)研究生院碩士學(xué)位論文第10頁圖2.1卷積神經(jīng)網(wǎng)絡(luò)前向計(jì)算過程訓(xùn)練(training)CNN的訓(xùn)練過程就是一個(gè)提高前向推理準(zhǔn)確性的一個(gè)學(xué)習(xí)過程,通過不斷的訓(xùn)練為前向計(jì)算提供一組高準(zhǔn)確率的模型參數(shù)用于推理和判斷。作為有監(jiān)督式算法,CNN的訓(xùn)練數(shù)據(jù)集都是帶有標(biāo)簽的,CNN會(huì)將通過網(wǎng)絡(luò)前向計(jì)算推理出來的內(nèi)容和這些數(shù)據(jù)的實(shí)際標(biāo)簽進(jìn)行對(duì)比,并將它們之間的差異通過反向傳播反應(yīng)到各個(gè)權(quán)值,并對(duì)權(quán)值進(jìn)行相應(yīng)的調(diào)整,使其在下一輪前向推理中獲得更高的識(shí)別精度。將此過程進(jìn)行反復(fù)迭代,訓(xùn)練過程最終會(huì)收斂到一個(gè)較高的推理正確性水平。權(quán)值輸入圖像輸出圖像圖2.2卷積層卷積層(ConvolutionLayers)卷積層作為卷積神經(jīng)網(wǎng)絡(luò)的主要網(wǎng)絡(luò)層,其卷積操作在卷積神經(jīng)網(wǎng)絡(luò)的所有操作中也是占據(jù)了主要的地位[49]。如圖2.2所示,卷積操作就是將一組權(quán)值在輸入圖像窗口上進(jìn)行從左至右、從上至下的平移,每平移一次,權(quán)值就與其窗口對(duì)應(yīng)的部分輸入值做對(duì)應(yīng)元素相乘并累加的操作,這每平移一次卷積產(chǎn)生的就是輸出圖像中的一個(gè)元素。假設(shè)有N個(gè)輸入圖像,就有N個(gè)KK大小的權(quán)值矩陣在輸入圖像上滑動(dòng)和卷積,一次完整的平移就可以得到一個(gè)完整的輸出圖像,若這樣的N個(gè)KK大小的權(quán)值矩陣總共存在M組,最終就可以得到M個(gè)輸出圖像。再假設(shè)每次滑動(dòng)的步長(zhǎng)為S,則圖像的卷積可用如下公式表達(dá):

特征圖,激活函數(shù)


國防科技大學(xué)研究生院碩士學(xué)位論文第11頁111000[][][][][][][][][][]NKKnijOutmrcInnSriSrjWmnij====++池化層(PoolingLayers)池化層一般都緊跟在卷積層之后,對(duì)卷積層的輸出進(jìn)行降采樣。池化層的目的在于減小特征圖規(guī)模,并保留顯著特征,從效果來看就是將圖像模糊化。如圖2.3所示,池化層采用固定大小的窗口,在特征圖像上滑動(dòng),從每次滑動(dòng)窗口對(duì)應(yīng)的部分輸入圖像中提取出一個(gè)有效信息,或最大值,或平均值等作為輸出圖的一個(gè)元素。InputfeaturemapOutputfeaturemap圖2.3池化層激活函數(shù)(ActivationFunction)激活函數(shù)也是神經(jīng)網(wǎng)絡(luò)中必不可少的環(huán)節(jié)之一。沒有激活函數(shù)的情況下,神經(jīng)網(wǎng)絡(luò)輸出信號(hào)僅僅只是一個(gè)線性變換的函數(shù),而作為線性模型的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和模擬復(fù)雜類型數(shù)據(jù)的能力是非常有限的,像圖像、語音、視頻等。因此激活函數(shù)的加入,充當(dāng)了神經(jīng)網(wǎng)絡(luò)中的非線性因子,使得神經(jīng)網(wǎng)絡(luò)在理論上可以逼近任何一個(gè)函數(shù)。如圖2.4所示,常見的激活函數(shù)有sigmod函數(shù),tanh函數(shù)和ReLU函數(shù)。(a)sigmod函數(shù)(b)tanh函數(shù)(c)ReLU函數(shù)圖2.4激活函數(shù)全連接層(Fully-connectedLayers)全連接層作為卷積神經(jīng)網(wǎng)絡(luò)的最后階段,在整個(gè)神經(jīng)網(wǎng)絡(luò)扮演者“分類器”的角色。它負(fù)責(zé)從依次經(jīng)由卷積層、池化層和激活函數(shù)層等處理得到的特征圖中提取出具有分類信息的特征向量。如圖2.5所


本文編號(hào):3267963

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3267963.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶350bb***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com