基于深度學習的遙感目標檢測算法FPGA部署實現(xiàn)研究
【文章頁數(shù)】:73 頁
【部分圖文】:
圖2.1LeNet-5網(wǎng)絡(luò)結(jié)構(gòu)圖
1989年,YannLeCun等人[8]提出了第一個卷積神經(jīng)網(wǎng)絡(luò)LeNet-5。如圖2.1所示,LeNet-5主要包含了卷積層、池化層以及全連接層三個部分。這三個基本算子加上激活函數(shù)層以及BatchNormalization層[16]構(gòu)建了現(xiàn)代深度卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)模型,后續(xù)....
圖2.2卷積層計算示意圖
在卷積層計算中,卷積核以固定步長在輸入數(shù)據(jù)上進行滑動,同時每次滑動計算一次矩陣的內(nèi)積,最終得到卷積層輸出特征圖,以實現(xiàn)特征提取的目的,一般根據(jù)任務(wù)的需要,選擇設(shè)計多個卷積核。圖2.2給出了卷積層計算的示意圖。其中卷積層的計算公式可以表示為:
圖2.3Sigmoid和Tanh函數(shù)曲線圖
圖2.3(a)展示了Sigmoid函數(shù)及其導數(shù)曲線圖,可以看出該激活函數(shù)導數(shù)在0值附近較為突出,兩端導數(shù)比較平穩(wěn),這對于數(shù)據(jù)在特征空間上的映射具有更好的效果,同時該激活函數(shù)的值域在0到1之間,因此更加適合應(yīng)用在二分類任務(wù)中。Sigmoid激活函數(shù)在計算中需要做對數(shù)和除法運算,計算....
圖2.4Relu和LeakyRelu函數(shù)曲線圖
函數(shù)及其導數(shù)曲線如圖2.4(a)所示。從圖中可以看到,該函數(shù)正半軸導數(shù)常為1,避免了訓練過程中梯度消失,且在0值導數(shù)不連續(xù),因此Relu也是非線性函數(shù)。相比于Sigmoid和Tanh,Relu消除了復雜的計算過程,大幅提升了計算速度,但是當輸入為負數(shù)時會造成神經(jīng)元的死亡。Leak....
本文編號:3987489
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3987489.html