基于深度學(xué)習(xí)的實(shí)時(shí)姿態(tài)識(shí)別與人物動(dòng)畫(huà)生成
【文章頁(yè)數(shù)】:108 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-3ReLU激活函數(shù)
第二章基礎(chǔ)理論和相關(guān)技術(shù)112.1.1.2神經(jīng)網(wǎng)絡(luò)模型的數(shù)學(xué)推導(dǎo)圖2-2兩種主流激活函數(shù)的形態(tài)圖對(duì)于每個(gè)輸入與對(duì)應(yīng)權(quán)重的乘積,就是上述中從其他神經(jīng)元傳來(lái)的神經(jīng)沖動(dòng),將他們求和,產(chǎn)生的結(jié)果如果超過(guò)閾值,即產(chǎn)生新的神經(jīng)沖動(dòng),在數(shù)學(xué)上用激活函數(shù)來(lái)實(shí)現(xiàn)這個(gè)功能,常用的激活函數(shù)有sigmo....
圖2-2兩種主流激活函數(shù)的形態(tài)圖
第二章基礎(chǔ)理論和相關(guān)技術(shù)112.1.1.2神經(jīng)網(wǎng)絡(luò)模型的數(shù)學(xué)推導(dǎo)圖2-2兩種主流激活函數(shù)的形態(tài)圖對(duì)于每個(gè)輸入與對(duì)應(yīng)權(quán)重的乘積,就是上述中從其他神經(jīng)元傳來(lái)的神經(jīng)沖動(dòng),將他們求和,產(chǎn)生的結(jié)果如果超過(guò)閾值,即產(chǎn)生新的神經(jīng)沖動(dòng),在數(shù)學(xué)上用激活函數(shù)來(lái)實(shí)現(xiàn)這個(gè)功能,常用的激活函數(shù)有sigmo....
圖2-4LeakyReLU激活函數(shù)
電子科技大學(xué)碩士學(xué)位論文12ReLU做簡(jiǎn)單的介紹,并闡述采用該函數(shù)的理論依據(jù)。如上圖所示,線性整流函數(shù)ReLU(RectifiedLinearUnit),是深度學(xué)習(xí)領(lǐng)域最具代表性的激活函數(shù)之一,它具有加速網(wǎng)絡(luò)收斂,緩解梯度消失的作用。采用ReLU而不采用傳統(tǒng)的激活函數(shù)如Sigmo....
圖2-5AlexNet卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
明是提高卷積神經(jīng)網(wǎng)絡(luò)精度,降低其復(fù)雜度的重要手段。2.1.3著名的深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)近年來(lái),由于卷積神經(jīng)網(wǎng)絡(luò)帶來(lái)的巨大影響,各領(lǐng)域的研究者都對(duì)卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展進(jìn)行了大量的精力投入,與之想對(duì)應(yīng)的是各種優(yōu)秀神經(jīng)網(wǎng)絡(luò)架構(gòu)的產(chǎn)生與大量使用。在吸取了一系列現(xiàn)有的優(yōu)秀神經(jīng)網(wǎng)絡(luò)架構(gòu)....
本文編號(hào):3984957
本文鏈接:http://sikaile.net/wenyilunwen/dongmansheji/3984957.html