連續(xù)空間下基于面部圖像的情感分析方法研究
發(fā)布時(shí)間:2021-07-13 11:23
計(jì)算機(jī)能夠準(zhǔn)確地認(rèn)知人類的情感狀態(tài)是智能交互的基礎(chǔ),面部圖像作為情感信息的主要載體,能夠傳達(dá)出55%的情感信息,因此面部情感識(shí)別具有很大的研究價(jià)值。但是現(xiàn)階段由于情感分析準(zhǔn)確率低,導(dǎo)致情感分析技術(shù)應(yīng)用受限,本文針對影響情感分析準(zhǔn)確率的兩個(gè)關(guān)鍵性問題:情感分析易受非情感因素影響;基于深度學(xué)習(xí)分析情感時(shí)忽略了情感兩個(gè)維度(Arousal和Valence)之間的相關(guān)性,提出了有效的解決方案。針對面部情感分析易受非情感因素影響這個(gè)問題,本文提取面部顯著區(qū)域特征,并對特征選擇,得到對情感具有判別力的特征,F(xiàn)階段情感分析算法大都基于整張人臉提取特征,這種特征提取方式既造成情感特征維度高,又導(dǎo)致情感特征易受人臉角度、光照以及面部外觀等非情感因素的影響。本文首先檢測出面部特征點(diǎn)和面部判別塊的位置,提取它們的局部外觀特征(Uniform Local Binary Pattern,ULBP);然后將兩種特征融合,送入改進(jìn)的情感顯著性堆疊降噪自編碼網(wǎng)絡(luò)(Salient Stack Denoising Autoencoder,SSDA)對特征進(jìn)行選擇,挑選出具有判別力的情感特征,最后利用情感顯著特征分析情感。...
【文章來源】:西安理工大學(xué)陜西省
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
Affect-Net數(shù)據(jù)集中的原圖像
【參考文獻(xiàn)】:
期刊論文
[1]基于MSVR和Arousal-Valence情感模型的表情識(shí)別研究[J]. 楊勇,黃文波,金裕成,顧西存. 重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版). 2016(06)
博士論文
[1]基于深度神經(jīng)網(wǎng)絡(luò)的回歸模型及其應(yīng)用研究[D]. 包姣.電子科技大學(xué) 2017
碩士論文
[1]特征點(diǎn)主導(dǎo)的面部自發(fā)表情識(shí)別方法研究[D]. 許亮.西安理工大學(xué) 2018
本文編號:3281968
【文章來源】:西安理工大學(xué)陜西省
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
Affect-Net數(shù)據(jù)集中的原圖像
【參考文獻(xiàn)】:
期刊論文
[1]基于MSVR和Arousal-Valence情感模型的表情識(shí)別研究[J]. 楊勇,黃文波,金裕成,顧西存. 重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版). 2016(06)
博士論文
[1]基于深度神經(jīng)網(wǎng)絡(luò)的回歸模型及其應(yīng)用研究[D]. 包姣.電子科技大學(xué) 2017
碩士論文
[1]特征點(diǎn)主導(dǎo)的面部自發(fā)表情識(shí)別方法研究[D]. 許亮.西安理工大學(xué) 2018
本文編號:3281968
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3281968.html
最近更新
教材專著