基于深度學(xué)習(xí)的面部情感識別研究
發(fā)布時間:2021-08-27 00:11
面部情感識別旨在判斷表情所傳達的情感傾向,智能感知個體情緒狀態(tài),具有重要的研究價值,已成為計算機視覺領(lǐng)域中的研究熱點。為此,針對現(xiàn)有面部情感識別模型的不足,本文從圖像和視頻兩個方面出發(fā),對靜態(tài)和動態(tài)的表情識別進行深入研究。1.針對面向圖像的靜態(tài)表情識別,考慮到卷積神經(jīng)網(wǎng)絡(luò)對情感相關(guān)的局部區(qū)域關(guān)注不夠以及經(jīng)典損失函數(shù)無法處理表情的類內(nèi)差異,研究了一種基于多層空間注意力的輕量級密集連接卷積神經(jīng)網(wǎng)絡(luò)(Hierarchical Attention based Lightweight Densely-connected Convolutional Neural Network,HA-LDCNN)。首先采用密集連接卷積模塊提取圖像特征,以獲取多尺度的豐富信息流,同時控制模型參數(shù)量;然后根據(jù)密集塊輸出特征特點構(gòu)建參數(shù)量微小的空間注意力單元,用于關(guān)注情感顯著性信息。在此基礎(chǔ)上,引入類內(nèi)距離懲罰項,將其與分類損失相結(jié)合監(jiān)督參數(shù)訓(xùn)練,以減小因樣本身份特性差異造成的影響。在兩個公開數(shù)據(jù)集CK+和RAF-DB上對所提出模型進行驗證,實驗結(jié)果表明了模型的魯棒性和高效性。2.針對面向視頻的動態(tài)表情識別,考慮到現(xiàn)有...
【文章來源】:重慶郵電大學(xué)重慶市
【文章頁數(shù)】:70 頁
【學(xué)位級別】:碩士
【部分圖文】:
HA-LDCNN在CK+數(shù)據(jù)集上的分類混淆矩陣
重慶郵電大學(xué)碩士學(xué)位論文第3章基于HA-LDCNN的靜態(tài)表情識別29表3.3展示了不同模型在RAF-DB上取得的準(zhǔn)確率。同樣地,HA-LDCNN的準(zhǔn)確率超越了所有基線模型,相比最佳方法LCML準(zhǔn)確率提高了0.63%,而相比RAF-DB創(chuàng)建者設(shè)計的方法DLP-CNN準(zhǔn)確率提高了3.65%。對比結(jié)果證明了該模型在無約束數(shù)據(jù)集上的有效性。表3.3不同模型在RAF-DB數(shù)據(jù)集上的準(zhǔn)確率模型驗證方法準(zhǔn)確率(%)LCML無交叉77.22ICID無交叉75.40DLP-CNN無交叉74.20MRE-CNN五折交叉76.73HA-LDCNN無交叉77.85圖3.6展示了HA-LDCNN在RAF-DB上的混淆矩陣?梢钥闯,快樂因其相對獨特的面部動作具有最高的分類精度,其次是驚訝與中性,而恐懼分類精度最低,因為在RAF-DB數(shù)據(jù)集中恐懼樣本數(shù)遠(yuǎn)小于其他類別樣本數(shù)。此外,由于從現(xiàn)實世界中收集的無約束表情圖像質(zhì)量參差不齊,存在拉伸形變和像素模糊,每一類表情與其他類表情之間都存在錯誤分類。圖3.6HA-LDCNN在RAF-DB數(shù)據(jù)集上的分類混淆矩陣
重慶郵電大學(xué)碩士學(xué)位論文第4章基于DCNNs-DFM的動態(tài)表情識別44表4.3不同模型在CK+數(shù)據(jù)集上的準(zhǔn)確率模型驗證方法準(zhǔn)確率(%)LPQ留一法94.90MSCNN十折交叉95.54DAM-CNN十折交叉95.88HybridFeature留一法95.70AlignedcropwithLSTM十折交叉97.203DCNNwithConvLSTM十折交叉97.50Ensemble十折交叉98.17OF五折交叉97.55DCNNs-DFM十折交叉98.47圖4.7展示了DCNNs-DFM在CK+上的混淆矩陣?梢钥闯觯珼CNNs-DFM在識別憤怒、蔑視和驚訝方面表現(xiàn)優(yōu)越,而在識別其余四類表情時出現(xiàn)了少量的錯誤分類。圖4.7DCNNs-DFM在CK+數(shù)據(jù)集上的分類混淆矩陣表4.4展示了不同模型在MMI上取得的準(zhǔn)確率。DCNNs-DFM的準(zhǔn)確率相比最佳方法Inception-ResNetwithCRF提高0.34%,證明了該模型的有效性。同樣地,除Spatio-temporslCNNwithDBN外,動態(tài)表情識別方法性能優(yōu)于靜態(tài)表情識別方
本文編號:3365243
【文章來源】:重慶郵電大學(xué)重慶市
【文章頁數(shù)】:70 頁
【學(xué)位級別】:碩士
【部分圖文】:
HA-LDCNN在CK+數(shù)據(jù)集上的分類混淆矩陣
重慶郵電大學(xué)碩士學(xué)位論文第3章基于HA-LDCNN的靜態(tài)表情識別29表3.3展示了不同模型在RAF-DB上取得的準(zhǔn)確率。同樣地,HA-LDCNN的準(zhǔn)確率超越了所有基線模型,相比最佳方法LCML準(zhǔn)確率提高了0.63%,而相比RAF-DB創(chuàng)建者設(shè)計的方法DLP-CNN準(zhǔn)確率提高了3.65%。對比結(jié)果證明了該模型在無約束數(shù)據(jù)集上的有效性。表3.3不同模型在RAF-DB數(shù)據(jù)集上的準(zhǔn)確率模型驗證方法準(zhǔn)確率(%)LCML無交叉77.22ICID無交叉75.40DLP-CNN無交叉74.20MRE-CNN五折交叉76.73HA-LDCNN無交叉77.85圖3.6展示了HA-LDCNN在RAF-DB上的混淆矩陣?梢钥闯,快樂因其相對獨特的面部動作具有最高的分類精度,其次是驚訝與中性,而恐懼分類精度最低,因為在RAF-DB數(shù)據(jù)集中恐懼樣本數(shù)遠(yuǎn)小于其他類別樣本數(shù)。此外,由于從現(xiàn)實世界中收集的無約束表情圖像質(zhì)量參差不齊,存在拉伸形變和像素模糊,每一類表情與其他類表情之間都存在錯誤分類。圖3.6HA-LDCNN在RAF-DB數(shù)據(jù)集上的分類混淆矩陣
重慶郵電大學(xué)碩士學(xué)位論文第4章基于DCNNs-DFM的動態(tài)表情識別44表4.3不同模型在CK+數(shù)據(jù)集上的準(zhǔn)確率模型驗證方法準(zhǔn)確率(%)LPQ留一法94.90MSCNN十折交叉95.54DAM-CNN十折交叉95.88HybridFeature留一法95.70AlignedcropwithLSTM十折交叉97.203DCNNwithConvLSTM十折交叉97.50Ensemble十折交叉98.17OF五折交叉97.55DCNNs-DFM十折交叉98.47圖4.7展示了DCNNs-DFM在CK+上的混淆矩陣?梢钥闯觯珼CNNs-DFM在識別憤怒、蔑視和驚訝方面表現(xiàn)優(yōu)越,而在識別其余四類表情時出現(xiàn)了少量的錯誤分類。圖4.7DCNNs-DFM在CK+數(shù)據(jù)集上的分類混淆矩陣表4.4展示了不同模型在MMI上取得的準(zhǔn)確率。DCNNs-DFM的準(zhǔn)確率相比最佳方法Inception-ResNetwithCRF提高0.34%,證明了該模型的有效性。同樣地,除Spatio-temporslCNNwithDBN外,動態(tài)表情識別方法性能優(yōu)于靜態(tài)表情識別方
本文編號:3365243
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3365243.html
最近更新
教材專著