天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于集成卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別研究與應(yīng)用

發(fā)布時(shí)間:2020-12-31 09:50
  面部表情識(shí)別一直以來(lái)是一個(gè)有趣且富有挑戰(zhàn)性的問(wèn)題,在實(shí)際應(yīng)用中容易受到各種因素的影響,諸如光照、姿勢(shì)、面部遮擋、年齡、種族等因素。據(jù)研究表明,傳統(tǒng)手工提取的特征無(wú)法解決與面部表情無(wú)關(guān)的各種因素,為了解決這一問(wèn)題本文采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),可以輸入原始數(shù)據(jù),將特征提取和分類結(jié)合,其模型擁有數(shù)千萬(wàn)參數(shù)可以處理大量的訓(xùn)練樣本,是一個(gè)強(qiáng)大的自動(dòng)特征提取器。目前最先進(jìn)的算法表明,使用CNN集成可以勝過(guò)單個(gè)CNN分類器。因此,本文針對(duì)以上問(wèn)題對(duì)優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)、學(xué)習(xí)基本分類器的最佳組合規(guī)則來(lái)提高表情識(shí)別精度開(kāi)展研究。主要工作及創(chuàng)新點(diǎn)如下:1、受VGG網(wǎng)絡(luò)整潔結(jié)構(gòu)以及Xception結(jié)構(gòu)的啟發(fā),設(shè)計(jì)了3個(gè)不同結(jié)構(gòu)化子卷積神經(jīng)網(wǎng)絡(luò),以保證網(wǎng)絡(luò)的互補(bǔ)性,緊湊而有效的網(wǎng)絡(luò)設(shè)計(jì)使其足以完成任務(wù)并易于訓(xùn)練。通過(guò)引入全局平均池化層代替全連接層減少模型參數(shù)量,同時(shí)保證了模型識(shí)別率,引入包含4個(gè)殘差深度可分離卷積模塊可以在加深網(wǎng)絡(luò)的同時(shí)進(jìn)一步減少網(wǎng)絡(luò)參數(shù)。此外在網(wǎng)絡(luò)中加入批量歸一化和L2范式以解決過(guò)擬合問(wèn)題、提高網(wǎng)絡(luò)泛化能力。在CK+數(shù)據(jù)集和FER-... 

【文章來(lái)源】:青島大學(xué)山東省

【文章頁(yè)數(shù)】:65 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于集成卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別研究與應(yīng)用


AlexNet網(wǎng)絡(luò)模型

基于集成卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別研究與應(yīng)用


GoogLeNet結(jié)構(gòu)

模塊圖,模塊,卷積


青島大學(xué)碩士學(xué)位論文12圖2.3Inception模塊(3)VGGNet2014年著名的牛津大學(xué)視覺(jué)組提出VGG網(wǎng)絡(luò)[58],并取得了ILSVRC-2014比賽定位任務(wù)的第一名和分類任務(wù)的第二名。這是一種只專注于構(gòu)建卷積層的簡(jiǎn)單網(wǎng)絡(luò),結(jié)構(gòu)規(guī)整,沒(méi)有那么多的超參數(shù),一個(gè)重要特性是由許多具有3×3小濾波器的卷積層彼此堆疊來(lái)模仿出更大的感受野的效果,而不是像先前的CNN模型那樣使用具有更大濾波器尺寸的單個(gè)卷積層。網(wǎng)絡(luò)配置如圖2.4[58]所示。隨著添加更多的層(所添加的層以粗體顯示),配置的深度從左側(cè)(A)向右側(cè)(E)增大。卷積層參數(shù)被表示為“感受域大小i-通道數(shù)h”,為簡(jiǎn)潔起見(jiàn),未顯示ReLU激活功能。在VGG網(wǎng)絡(luò)結(jié)構(gòu)中,為了保證卷積后的圖像大小不變,對(duì)圖像四周各填充1個(gè)像素。池化層大小都為2×2,步長(zhǎng)為2。有3層全連接層,分別包括4096、4096、1000個(gè)節(jié)點(diǎn)。VGG網(wǎng)絡(luò)的所有層都采用了ReLU激活函數(shù),除最后一個(gè)全連接層外。與AlexNet相比,VGG去掉了局部響應(yīng)歸一化層(LocalResponseNormalization,LRN),因?yàn)樽髡咴趯?shí)驗(yàn)中發(fā)現(xiàn)LRN的作用并不明顯。后續(xù)的網(wǎng)絡(luò)架構(gòu)中也應(yīng)用了這些思想,比如Inception與ResNet。目前仍經(jīng)常用VGG網(wǎng)絡(luò)來(lái)提取圖像特征,其拓展性很強(qiáng),遷移到其他圖片數(shù)據(jù)上的泛化性很好,被廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域的各類任務(wù)。在文獻(xiàn)[59]中對(duì)VGG16網(wǎng)絡(luò)進(jìn)行微調(diào)構(gòu)建了一個(gè)加權(quán)混合深度神經(jīng)網(wǎng)絡(luò)來(lái)自動(dòng)提取特征,其處理面部灰度圖像及其相應(yīng)的局部二值模式面部圖像這兩個(gè)通道,輸出以加權(quán)方式進(jìn)行融合,局部二值模式和灰度人臉圖像的有效結(jié)合保證了泛化能力。

【參考文獻(xiàn)】:
期刊論文
[1]人臉微表情識(shí)別綜述[J]. 徐峰,張軍平.  自動(dòng)化學(xué)報(bào). 2017(03)
[2]基于ROI-KNN卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別[J]. 孫曉,潘汀,任福繼.  自動(dòng)化學(xué)報(bào). 2016(06)



本文編號(hào):2949408

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2949408.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶88dc1***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com