FPGA實(shí)現(xiàn)的可編程神經(jīng)網(wǎng)絡(luò)處理器
發(fā)布時(shí)間:2021-03-27 07:40
深度學(xué)習(xí)是人工智能領(lǐng)域進(jìn)入新世紀(jì)以來最重要的突破之一。它在圖像識(shí)別、計(jì)算機(jī)視覺和自然語言處理等眾多領(lǐng)域都取得了驚人的成就。尤其是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)簡(jiǎn)稱CNN,更是深度學(xué)習(xí)中的翹楚。當(dāng)前卷積神經(jīng)網(wǎng)絡(luò)算法正在不斷演進(jìn),從LeNet、AlexNet、到GoogleNet和VGGNet等,經(jīng)典的CNN網(wǎng)絡(luò)層出不窮;從CNN、R-CNN、Fast R-CNN到Faster R-CNN和R-FCN不斷推陳出新;贑NN的重要性和靈活性,應(yīng)抓緊促進(jìn)其落地應(yīng)用。CNN及其衍生算法的多樣性決定了直接使用ASIC加速計(jì)算是比較有挑戰(zhàn)性的。此外卷積神經(jīng)網(wǎng)絡(luò)存在著結(jié)構(gòu)多樣和數(shù)據(jù)交換量大的問題。針對(duì)上述問題,本研究提出了FPGA實(shí)現(xiàn)的可編程神經(jīng)網(wǎng)絡(luò)處理器。系統(tǒng)采用傳輸觸發(fā)架構(gòu)結(jié)合多通道DMA、多端口存儲(chǔ)器和專用池化通道組成數(shù)據(jù)傳輸網(wǎng)絡(luò)有效解決了網(wǎng)絡(luò)結(jié)構(gòu)適應(yīng)性及海量數(shù)據(jù)交換的問題。實(shí)驗(yàn)表明,本系統(tǒng)在處理VGG16網(wǎng)絡(luò)時(shí),吞吐速率達(dá)到197.1GOPS。本方案具有系統(tǒng)并行度大、可編程、可在線配置和處理速度較高的特點(diǎn)。文章首先介紹了卷積神經(jīng)網(wǎng)絡(luò)的背景和發(fā)展現(xiàn)狀;...
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:80 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)元示意圖
構(gòu)設(shè)計(jì)提供必要的理論指導(dǎo)。為此本章圍繞三個(gè)方面介紹卷積神經(jīng)網(wǎng)絡(luò):經(jīng)典網(wǎng)絡(luò)介紹,不同層類型介紹和非線性函數(shù)統(tǒng)計(jì)分析。2.2.1 卷積神經(jīng)網(wǎng)絡(luò)介紹卷積神經(jīng)網(wǎng)絡(luò)的前身是多層感知器,即上一個(gè)小結(jié)介紹的多層神經(jīng)網(wǎng)絡(luò)。雖然多層神經(jīng)網(wǎng)絡(luò)已經(jīng)能逼近任意函數(shù),但當(dāng)神經(jīng)網(wǎng)絡(luò)超過三層以后,會(huì)產(chǎn)生梯度消失的問題,這導(dǎo)致了其難以訓(xùn)練。因此,很多學(xué)者一直在致力于尋找一種訓(xùn)練深層網(wǎng)絡(luò)的方法。受到生物眼中感受野概念的啟發(fā),LeCun 于 1998[1]提出了第一個(gè)卷積神經(jīng)網(wǎng)絡(luò),其架構(gòu)如圖 2.4 所示,相比之前的多層感知器,該方法利用了稀疏特性,通過權(quán)值共享有效減少了深層神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量;其中還加入了池化函數(shù),這使得該網(wǎng)絡(luò)在一定程度上對(duì)旋轉(zhuǎn)、平移和放縮具有很好的魯棒性。
圖2.5 AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)圖[17]2015 年 Simonyan 等人[18]提出了規(guī)模達(dá)到520M卷積神經(jīng)神經(jīng)網(wǎng)絡(luò),即VGGNet。其結(jié)構(gòu)如圖 2.6 所示。該網(wǎng)絡(luò)所有的卷積核尺寸都是 3 的,其泛化能力很強(qiáng),用在了很多最新的圖像處理算法當(dāng)中。224x224@3224x224@64112x112@12856x56@25628x28@51214x14@512 7x7@5121x1@40961x1@1000softmax最大池化層所有卷積核尺寸=3x3最大池化層 最大池化層最大池化層最大池化層圖2.6 VGG16 網(wǎng)絡(luò)結(jié)構(gòu)圖2014 年的 GoogleNet(Inception-V1)[19]是一個(gè)很高效的網(wǎng)絡(luò),其網(wǎng)絡(luò)參數(shù)比VGG16
【參考文獻(xiàn)】:
期刊論文
[1]傳輸觸發(fā)架構(gòu)的可編程神經(jīng)網(wǎng)絡(luò)處理器設(shè)計(jì)[J]. 趙博然,張犁,石光明,黃蓉,徐欣冉. 西安電子科技大學(xué)學(xué)報(bào). 2018(04)
[2]面向OpenGL的圖形加速器設(shè)計(jì)與實(shí)現(xiàn)[J]. 鄧軍勇,李濤,蔣林,韓俊剛,沈緒榜. 西安電子科技大學(xué)學(xué)報(bào). 2015(06)
[3]一種用于實(shí)時(shí)圖像處理的眾核結(jié)構(gòu)設(shè)計(jì)[J]. 劉鎮(zhèn)弢,李濤,黃虎才,韓俊剛,沈緒榜. 西安電子科技大學(xué)學(xué)報(bào). 2015(02)
本文編號(hào):3103178
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:80 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)元示意圖
構(gòu)設(shè)計(jì)提供必要的理論指導(dǎo)。為此本章圍繞三個(gè)方面介紹卷積神經(jīng)網(wǎng)絡(luò):經(jīng)典網(wǎng)絡(luò)介紹,不同層類型介紹和非線性函數(shù)統(tǒng)計(jì)分析。2.2.1 卷積神經(jīng)網(wǎng)絡(luò)介紹卷積神經(jīng)網(wǎng)絡(luò)的前身是多層感知器,即上一個(gè)小結(jié)介紹的多層神經(jīng)網(wǎng)絡(luò)。雖然多層神經(jīng)網(wǎng)絡(luò)已經(jīng)能逼近任意函數(shù),但當(dāng)神經(jīng)網(wǎng)絡(luò)超過三層以后,會(huì)產(chǎn)生梯度消失的問題,這導(dǎo)致了其難以訓(xùn)練。因此,很多學(xué)者一直在致力于尋找一種訓(xùn)練深層網(wǎng)絡(luò)的方法。受到生物眼中感受野概念的啟發(fā),LeCun 于 1998[1]提出了第一個(gè)卷積神經(jīng)網(wǎng)絡(luò),其架構(gòu)如圖 2.4 所示,相比之前的多層感知器,該方法利用了稀疏特性,通過權(quán)值共享有效減少了深層神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量;其中還加入了池化函數(shù),這使得該網(wǎng)絡(luò)在一定程度上對(duì)旋轉(zhuǎn)、平移和放縮具有很好的魯棒性。
圖2.5 AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)圖[17]2015 年 Simonyan 等人[18]提出了規(guī)模達(dá)到520M卷積神經(jīng)神經(jīng)網(wǎng)絡(luò),即VGGNet。其結(jié)構(gòu)如圖 2.6 所示。該網(wǎng)絡(luò)所有的卷積核尺寸都是 3 的,其泛化能力很強(qiáng),用在了很多最新的圖像處理算法當(dāng)中。224x224@3224x224@64112x112@12856x56@25628x28@51214x14@512 7x7@5121x1@40961x1@1000softmax最大池化層所有卷積核尺寸=3x3最大池化層 最大池化層最大池化層最大池化層圖2.6 VGG16 網(wǎng)絡(luò)結(jié)構(gòu)圖2014 年的 GoogleNet(Inception-V1)[19]是一個(gè)很高效的網(wǎng)絡(luò),其網(wǎng)絡(luò)參數(shù)比VGG16
【參考文獻(xiàn)】:
期刊論文
[1]傳輸觸發(fā)架構(gòu)的可編程神經(jīng)網(wǎng)絡(luò)處理器設(shè)計(jì)[J]. 趙博然,張犁,石光明,黃蓉,徐欣冉. 西安電子科技大學(xué)學(xué)報(bào). 2018(04)
[2]面向OpenGL的圖形加速器設(shè)計(jì)與實(shí)現(xiàn)[J]. 鄧軍勇,李濤,蔣林,韓俊剛,沈緒榜. 西安電子科技大學(xué)學(xué)報(bào). 2015(06)
[3]一種用于實(shí)時(shí)圖像處理的眾核結(jié)構(gòu)設(shè)計(jì)[J]. 劉鎮(zhèn)弢,李濤,黃虎才,韓俊剛,沈緒榜. 西安電子科技大學(xué)學(xué)報(bào). 2015(02)
本文編號(hào):3103178
本文鏈接:http://sikaile.net/kejilunwen/jisuanjikexuelunwen/3103178.html
最近更新
教材專著