改進(jìn)Darknet框架的多目標(biāo)檢測(cè)與識(shí)別方法研究
【文章頁(yè)數(shù)】:67 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1深度學(xué)習(xí)工作原理
淺層人工神經(jīng)網(wǎng)絡(luò)只能用于線性分類,并且和計(jì)算機(jī)能力的限制,訓(xùn)練一個(gè)多層感知機(jī)所需的時(shí)間神經(jīng)網(wǎng)絡(luò)的發(fā)展。直到1974年,PaulWerbos[38]等人深練機(jī)制,并提出了改進(jìn)方案—誤差反向傳播算法,推動(dòng)新的熱潮。而機(jī)器學(xué)習(xí)也從淺層學(xué)習(xí)模型階段發(fā)展到了階段。習(xí)是將輸入映射到目標(biāo)....
圖2-2神經(jīng)元模型
圖2-2神經(jīng)元模型該神經(jīng)元由多個(gè)輸入(1,2,...)ixin和一個(gè)輸出y組成,輸入的權(quán)值與定了中間狀態(tài)的表達(dá)與輸出,輸出可表示為:()iiyfwxb,iw是權(quán)重項(xiàng),b是偏置12(,,...,|)nixxxx....
圖2-3Sigmoid函數(shù)
圖2-3Sigmoid函數(shù)圖2-4ReLU函數(shù)ReLU函數(shù)是目前使用最多的激活函數(shù),其在保持同樣效果的同時(shí)收也是Darknet框架中所采用的激活函數(shù),其優(yōu)勢(shì)在于:(1)處理速度快,比Sigmoid函數(shù)需要算指數(shù)、倒數(shù)代價(jià)小很多;(2)減輕了梯度消失問(wèn)題....
圖2-4ReLU函數(shù)ReLU函數(shù)是目前使用最多的激活函數(shù),其在保持同樣效果的同時(shí)收斂更
圖2-3Sigmoid函數(shù)圖2-4ReLU函數(shù)ReLU函數(shù)是目前使用最多的激活函數(shù),其在保持同樣效果的同時(shí)收也是Darknet框架中所采用的激活函數(shù),其優(yōu)勢(shì)在于:(1)處理速度快,比Sigmoid函數(shù)需要算指數(shù)、倒數(shù)代價(jià)小很多;(2)減輕了梯度消失問(wèn)題....
本文編號(hào):4028926
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/4028926.html