基于深度學(xué)習(xí)的細(xì)粒度鳥(niǎo)類(lèi)識(shí)別方法研究與系統(tǒng)實(shí)現(xiàn)
【文章頁(yè)數(shù)】:65 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.1單層感知機(jī)簡(jiǎn)單結(jié)構(gòu)圖??7??
使得整個(gè)人工神經(jīng)??網(wǎng)絡(luò)結(jié)構(gòu)能通過(guò)編程語(yǔ)言控制或?qū)懭胗布O(shè)備。在各種人工神經(jīng)網(wǎng)絡(luò)方法中??BP(back?propagation)網(wǎng)絡(luò)是最經(jīng)典的人工神經(jīng)網(wǎng)絡(luò)之一,接下來(lái)本章將對(duì)BP網(wǎng)??絡(luò)進(jìn)行介紹。??2.1.1單層神經(jīng)元結(jié)構(gòu)??對(duì)于人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它的核心處理單元叫做神經(jīng)元。....
圖2.?2多層感知器結(jié)構(gòu)圖??
?第二章深度學(xué)習(xí)技術(shù)簡(jiǎn)介???單層感知機(jī)的核心計(jì)算公式如2-1所示。??(sfl?if?w-x?+?b>0??/(x)|〇?otherwise?(2_丨)??m公式中代表權(quán)重的大小,6是偏置項(xiàng)。6功能是避免過(guò)擬合的發(fā)生。wx??為m代表輸入結(jié)構(gòu)的數(shù)量,x代表數(shù)值用于輸入。通常在簡(jiǎn)....
圖2.?3簡(jiǎn)單B-P神經(jīng)網(wǎng)絡(luò)模型圖??如圖2.3所示,最左邊的3個(gè)單元為輸入單元,輸入是一個(gè)由xpx2,:c3組成??
層神??經(jīng)網(wǎng)絡(luò)類(lèi)似,區(qū)別在于增加了反向傳播的過(guò)程。BP神經(jīng)網(wǎng)的運(yùn)算過(guò)程主要有三??點(diǎn),第一步執(zhí)行與多層神經(jīng)網(wǎng)絡(luò)相同的正向傳播過(guò)程,第二步通過(guò)第一步得到的??輸出值與真實(shí)值進(jìn)行比較,計(jì)算輸出值與真實(shí)值的差并進(jìn)行反向傳播更新參數(shù)。??第三部步每輸入一部分樣本數(shù)據(jù)就重復(fù)第一二步,直到差....
圖2.4?BP算法流程圖??2.2卷積神經(jīng)網(wǎng)絡(luò)算法??目前計(jì)算機(jī)視覺(jué)領(lǐng)域中,研宄人員運(yùn)用最廣泛的神經(jīng)網(wǎng)絡(luò)算法就是卷積神經(jīng)??網(wǎng)絡(luò)算法
?第二章深度學(xué)習(xí)技術(shù)簡(jiǎn)介???集中單個(gè)樣本誤差的累加和。??在研究BP神經(jīng)網(wǎng)絡(luò)的過(guò)程中研究人員也發(fā)現(xiàn)了它的幾點(diǎn)缺陷:第一,BP??神經(jīng)網(wǎng)絡(luò)有訓(xùn)練至局部最小化的可能性,這會(huì)使得最后的模型無(wú)法達(dá)到最優(yōu)解;??第二,BP神經(jīng)網(wǎng)絡(luò)由于參數(shù)眾多會(huì)導(dǎo)致訓(xùn)練時(shí)間比較長(zhǎng)久,并且對(duì)硬件要求也??比....
本文編號(hào):3987523
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3987523.html