天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

人臉表情識(shí)別的Capsule模型研究

發(fā)布時(shí)間:2021-01-04 03:59
  在日常生活中,人們主要通過人臉表情來傳遞心理情感信息。人臉表情識(shí)別是利用構(gòu)建的模型來識(shí)別人臉表情,并通過表情判斷心理情感;谏疃葘W(xué)習(xí)的人臉表情識(shí)別在人機(jī)交互和醫(yī)療等領(lǐng)域得到廣泛關(guān)注和重點(diǎn)研究,也取得了很大的進(jìn)展。深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)對(duì)人臉表情有較好的特征提取能力,但在空間信息的提取能力方面表現(xiàn)不足。本文構(gòu)建了基于Capsule的人臉表情識(shí)別模型,該模型主要分為三部分:提取基礎(chǔ)特征的2-4層的卷積層,對(duì)實(shí)體特征進(jìn)行表示并分類的Capsule層以及進(jìn)一步優(yōu)化網(wǎng)絡(luò)的解碼器結(jié)構(gòu)。本文的模型利用Capsule來表征人臉表情實(shí)體,可以更好的提取人臉表情圖像中的空間信息。針對(duì)本文構(gòu)建的Capsule的人臉表情識(shí)別模型,本文做了兩方面的優(yōu)化研究。一方面是本文研究了卷積層對(duì)Capsule最終表征人臉表情實(shí)體的影響,由于不同卷積層提取的特征不同,生成原始的Capsule也不同,導(dǎo)致模型對(duì)人臉表情的識(shí)別性能有所差異。另一方面是本文研究了解碼器對(duì)本文模型的影響。本文研究了兩種方法來構(gòu)建人臉表情識(shí)別的解碼器,一種是基于全連接構(gòu)建的解碼器,另一種是基于反卷積構(gòu)建的解碼器。解碼器是通過重構(gòu)圖像來優(yōu)化模型,對(duì)模... 

【文章來源】:重慶郵電大學(xué)重慶市

【文章頁(yè)數(shù)】:62 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

人臉表情識(shí)別的Capsule模型研究


長(zhǎng)短期記憶網(wǎng)絡(luò)的面部表情識(shí)別模型[58]

補(bǔ)丁,表情,模型,框架


重慶郵電大學(xué)碩士學(xué)位論文第1章緒論5圖1.3基于CNN的人臉表情識(shí)別網(wǎng)絡(luò)[60]2017年,zhang等人[60]提出了基于CNN來識(shí)別人臉表情的新型框架,如圖1.3所示。與其他的深度學(xué)習(xí)方法相比,他們提出的基于多尺度全局圖像和局部面部補(bǔ)丁的框架可以顯著提高面部表情識(shí)別的性能。為了利用從粗到精的框架,該模型采用了不同網(wǎng)絡(luò)結(jié)構(gòu)在多個(gè)尺度上進(jìn)行檢測(cè)。模型還會(huì)對(duì)原始圖像產(chǎn)生許多補(bǔ)丁,這些補(bǔ)丁也會(huì)輸入到CNN中進(jìn)行訓(xùn)練,所有的補(bǔ)丁是共享一個(gè)網(wǎng)絡(luò)的。2017年Sabour和Hinton提出了一種全新的神經(jīng)網(wǎng)絡(luò)模型CapsNet用于手寫數(shù)據(jù)集的識(shí)別。這個(gè)網(wǎng)絡(luò)模型是基于一種叫Capsule的結(jié)構(gòu)。該模型解決了卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練中會(huì)遺失圖像空間信息的問題,將卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中圖像遺失的部分信息充分利用了起來,使得最后的識(shí)別效果得到了提升。在手寫數(shù)字識(shí)別的數(shù)據(jù)集上也取得了優(yōu)異的性能。目前人臉表情識(shí)別的研究已經(jīng)有了很大進(jìn)展,部分技術(shù)也可以運(yùn)用到實(shí)際的生活中。但仍然存在不少的問題需要解決,主要有以下幾個(gè)方面:1.在實(shí)際環(huán)境中,人臉檢測(cè)受背景,光照等因素影響,其檢測(cè)正確率會(huì)有所下降,導(dǎo)致人臉表情的識(shí)別也會(huì)隨之降低。2.CNN由于丟失了部分空間信息,在實(shí)際的識(shí)別任務(wù)中,很容易被對(duì)抗性的樣本欺騙,造成人臉表情識(shí)別的深度模型性能急劇下降。3.采用深度學(xué)習(xí)技術(shù)的人臉表情識(shí)別模型,其構(gòu)建的模型結(jié)構(gòu)越來越復(fù)雜,超參數(shù)也越來越多,需要大量試錯(cuò)訓(xùn)練。1.3本文主要工作和創(chuàng)新點(diǎn)本文對(duì)于人臉表情識(shí)別的算法研究是從以下幾個(gè)方面開展的:1.研究深度學(xué)習(xí)對(duì)于人臉表情識(shí)別的運(yùn)用及相關(guān)算法。

特征圖,特征圖,尺度


重慶郵電大學(xué)碩士學(xué)位論文第2章相關(guān)基礎(chǔ)理論10(a)6×6的特征圖(b)4×4的特征圖MTCNN[30]是用于人臉檢測(cè)多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)模型。該模型有三個(gè)級(jí)聯(lián)的網(wǎng)絡(luò),分別是為了生成所需候選窗口的P-Net,將得到的候選窗口進(jìn)行更加細(xì)致篩選的R-Net和生成最終邊界框與人臉關(guān)鍵點(diǎn)的O-Net。該模型還利用了圖像金字塔、邊框回歸、非最大值抑制等技術(shù)。在網(wǎng)絡(luò)中采用了候選框加上分類器的思想,能對(duì)人臉圖像進(jìn)行更加有效的人臉檢測(cè)。P-Net是一個(gè)對(duì)初始圖像生成大量候選框的建議網(wǎng)絡(luò),主要是圖像通過三個(gè)卷積層進(jìn)行卷積后得到特征圖,然后將特征圖通過一個(gè)人臉分類器判斷該區(qū)域是否是人臉,同時(shí)使用邊框回歸和一個(gè)可以定位圖像中人臉關(guān)鍵點(diǎn)的定位器來對(duì)圖片中的人臉區(qū)域進(jìn)行初步候眩該部分最終將輸出很多張可能存在人臉的候選框,然后會(huì)把得到的候選框輸入R-Net進(jìn)行篩選處理。R-Net會(huì)濾除大量效果比較差的候選框,該層使用了相對(duì)于P-Net更復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)。通過R-Net網(wǎng)絡(luò)將大部分不太精準(zhǔn)的候選框舍去,再次使用了邊框回歸和人臉關(guān)鍵點(diǎn)定位器。這層網(wǎng)絡(luò)輸出的結(jié)果是比P-Net好一些人臉候選框,將這些結(jié)果提供給O-Net使用。O-Net這一層會(huì)通過更復(fù)雜的網(wǎng)絡(luò)來識(shí)別面部的區(qū)域,最終輸出五個(gè)人臉定位點(diǎn)。圖像中的人臉位置就是通過這五個(gè)點(diǎn)確定的。這一層的特征輸入非常多,它的網(wǎng)絡(luò)結(jié)構(gòu)也比前兩層更加復(fù)雜。但同時(shí)它也有更加優(yōu)良的性能,可以獲得非常好的結(jié)果。因此,這一層的結(jié)果也是整個(gè)網(wǎng)絡(luò)的輸出結(jié)果。圖2.1不同尺度的特征圖


本文編號(hào):2956105

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/2956105.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶2eb0d***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com