人臉情緒識(shí)別深度學(xué)習(xí)模型研究與應(yīng)用
發(fā)布時(shí)間:2022-01-26 08:59
近年來(lái),深度學(xué)習(xí)模型得到飛速發(fā)展,深度卷積神經(jīng)網(wǎng)絡(luò)作為其中的一種方法在計(jì)算機(jī)視覺(jué)中得到廣泛應(yīng)用。影響深度學(xué)習(xí)模型性能的因素眾多,其中激活函數(shù)的選取和卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)對(duì)深度學(xué)習(xí)模型的性能有著重要的影響。針對(duì)人臉情緒識(shí)別模型準(zhǔn)確率不足的問(wèn)題,本文分析了傳統(tǒng)激活函數(shù)ReLU、L-ReLU、P-ReLU等性能優(yōu)缺點(diǎn),并且與新型Swish激活函數(shù)進(jìn)行了相應(yīng)的比較,將Swish函數(shù)引入人臉情緒深度學(xué)習(xí)模型,提出了一種改進(jìn)的反向傳播算法,并在卷積神經(jīng)網(wǎng)絡(luò)中使用多層小尺寸卷積模塊替代單層大尺寸卷積模塊,提取細(xì)化特征,構(gòu)建了一種新型的人臉情緒識(shí)別深度學(xué)習(xí)模型Swish-FER-CNNs。實(shí)驗(yàn)結(jié)果表明,相比于ReLU、L-ReLU、P-ReLU等激活函數(shù),Swish激活函數(shù)識(shí)別準(zhǔn)確率更高。結(jié)合Swish激活函數(shù),本文構(gòu)建的深度學(xué)習(xí)模型Swish-FER-CNNS相對(duì)于現(xiàn)存模型,識(shí)別準(zhǔn)確率提高了4.02%。Swish-FER-CNNs模型提升了人臉情緒識(shí)別的準(zhǔn)確率,但計(jì)算時(shí)間較長(zhǎng)。而深度學(xué)習(xí)模型的訓(xùn)練時(shí)間是網(wǎng)絡(luò)性能的另一重要指標(biāo),為了減少模型訓(xùn)練時(shí)間,本文結(jié)合ReLU激活函數(shù)正半軸導(dǎo)數(shù)易于計(jì)算的特點(diǎn)以及S...
【文章來(lái)源】:湘潭大學(xué)湖南省
【文章頁(yè)數(shù)】:78 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
人臉運(yùn)動(dòng)單元法分析人臉情緒
實(shí)數(shù)時(shí)輸出為“0”(關(guān)),輸入為正實(shí)數(shù)時(shí)輸出為“1階躍函數(shù)[24]相似。然而,數(shù)學(xué)中多數(shù)問(wèn)題都不是簡(jiǎn)單的的范圍和節(jié)點(diǎn)較少。為引入非線性映射而設(shè)計(jì)的nh[26]和 ReLU[27],都具有自身的優(yōu)勢(shì)和先進(jìn)性;詈瘮(shù),具有軟飽和性:函數(shù)在定義域范圍內(nèi),連續(xù)函數(shù)斜率趨近 0,一階導(dǎo)數(shù)趨向于 0,被稱為梯度彌度隨傳播深度增加而急劇減小的現(xiàn)象,神經(jīng)元權(quán)重更利于神經(jīng)網(wǎng)絡(luò)的發(fā)展,其函數(shù)定義如下:1( )1xf xe 如下圖所示:
圖 1-3 ReLU 激活函數(shù)引入的 L-ReLU 激活函數(shù)可有數(shù)恒定,利于計(jì)算,與 ReLU 性半軸,減緩了均值偏移。其函, 0( ), 0x xf x x x :
【參考文獻(xiàn)】:
期刊論文
[1]基于改進(jìn)激活函數(shù)的用于臺(tái)風(fēng)等級(jí)分類的深度學(xué)習(xí)模型[J]. 鄭宗生,劉兆榮,黃冬梅,宋巍,鄒國(guó)良,侯倩,郝劍波. 計(jì)算機(jī)科學(xué). 2018(12)
[2]ReLU激活函數(shù)優(yōu)化研究[J]. 蔣昂波,王維維. 傳感器與微系統(tǒng). 2018(02)
[3]基于改進(jìn)激活函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)研究[J]. 曲之琳,胡曉飛. 計(jì)算機(jī)技術(shù)與發(fā)展. 2017(12)
碩士論文
[1]基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)算法的研究與應(yīng)用[D]. 王飛飛.南京郵電大學(xué) 2016
本文編號(hào):3610210
【文章來(lái)源】:湘潭大學(xué)湖南省
【文章頁(yè)數(shù)】:78 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
人臉運(yùn)動(dòng)單元法分析人臉情緒
實(shí)數(shù)時(shí)輸出為“0”(關(guān)),輸入為正實(shí)數(shù)時(shí)輸出為“1階躍函數(shù)[24]相似。然而,數(shù)學(xué)中多數(shù)問(wèn)題都不是簡(jiǎn)單的的范圍和節(jié)點(diǎn)較少。為引入非線性映射而設(shè)計(jì)的nh[26]和 ReLU[27],都具有自身的優(yōu)勢(shì)和先進(jìn)性;詈瘮(shù),具有軟飽和性:函數(shù)在定義域范圍內(nèi),連續(xù)函數(shù)斜率趨近 0,一階導(dǎo)數(shù)趨向于 0,被稱為梯度彌度隨傳播深度增加而急劇減小的現(xiàn)象,神經(jīng)元權(quán)重更利于神經(jīng)網(wǎng)絡(luò)的發(fā)展,其函數(shù)定義如下:1( )1xf xe 如下圖所示:
圖 1-3 ReLU 激活函數(shù)引入的 L-ReLU 激活函數(shù)可有數(shù)恒定,利于計(jì)算,與 ReLU 性半軸,減緩了均值偏移。其函, 0( ), 0x xf x x x :
【參考文獻(xiàn)】:
期刊論文
[1]基于改進(jìn)激活函數(shù)的用于臺(tái)風(fēng)等級(jí)分類的深度學(xué)習(xí)模型[J]. 鄭宗生,劉兆榮,黃冬梅,宋巍,鄒國(guó)良,侯倩,郝劍波. 計(jì)算機(jī)科學(xué). 2018(12)
[2]ReLU激活函數(shù)優(yōu)化研究[J]. 蔣昂波,王維維. 傳感器與微系統(tǒng). 2018(02)
[3]基于改進(jìn)激活函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)研究[J]. 曲之琳,胡曉飛. 計(jì)算機(jī)技術(shù)與發(fā)展. 2017(12)
碩士論文
[1]基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)算法的研究與應(yīng)用[D]. 王飛飛.南京郵電大學(xué) 2016
本文編號(hào):3610210
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3610210.html
最近更新
教材專著