基于BOOSTING框架的視覺(jué)語(yǔ)音多模態(tài)情感識(shí)別檢測(cè)方法
本文選題:情感識(shí)別 + 表情識(shí)別。 參考:《現(xiàn)代電子技術(shù)》2017年23期
【摘要】:情感識(shí)別技術(shù)是智能人機(jī)交互的重要基礎(chǔ),它涉及計(jì)算機(jī)科學(xué)、語(yǔ)言學(xué)、心理學(xué)等多個(gè)研究領(lǐng)域,是模式識(shí)別和圖像處理領(lǐng)域的研究熱點(diǎn)。鑒于此,基于Boosting框架提出兩種有效的視覺(jué)語(yǔ)音多模態(tài)融合情感識(shí)別方法:第一種方法將耦合HMM(coupled HMM)作為音頻流和視頻流的模型層融合技術(shù),使用改進(jìn)的期望最大化算法對(duì)其進(jìn)行訓(xùn)練,著重學(xué)習(xí)難于識(shí)別的(即含有更多信息的)樣本,并將Ada Boost框架應(yīng)用于耦合HMM的訓(xùn)練過(guò)程,從而得到Ada Boost-CHMM總體分類(lèi)器;第二種方法構(gòu)建了多層Boosted HMM(MBHMM)分類(lèi)器,將臉部表情、肩部運(yùn)動(dòng)和語(yǔ)音三種模態(tài)的數(shù)據(jù)流分別應(yīng)用于分類(lèi)器的某一層,當(dāng)前層的總體分類(lèi)器在訓(xùn)練時(shí)會(huì)聚焦于前一層總體分類(lèi)器難于識(shí)別的樣本,充分利用各模態(tài)特征數(shù)據(jù)間的互補(bǔ)特性。實(shí)驗(yàn)結(jié)果驗(yàn)證了兩種方法的有效性。
[Abstract]:Emotion recognition is an important foundation of intelligent human-computer interaction. It involves many research fields such as computer science, linguistics, psychology and so on. It is a hot topic in the field of pattern recognition and image processing. In view of this, two effective emotion recognition methods for visual speech multimodal fusion based on Boosting framework are proposed. The first method uses coupled HMM(coupled HMMas as model layer fusion technology for audio and video streams. The improved expectation maximization algorithm is used to train it, which is difficult to identify (that is, with more information). The Ada Boost framework is applied to the training process of coupled HMM, and the Ada Boost-CHMM classifier is obtained. The second method is to construct a multilayer Boosted hmm classifier. The data streams of facial expression, shoulder motion and speech are applied to one layer of the classifier, respectively. The current overall classifier will focus on the samples which are difficult to identify in the previous layer, and make full use of the complementary characteristics among the modal feature data. The experimental results show the effectiveness of the two methods.
【作者單位】: 成都理工大學(xué)信息科學(xué)與技術(shù)學(xué)院;
【基金】:四川省軟件工程專業(yè)卓越工程師質(zhì)量工程項(xiàng)目支持(11100-14Z00327)
【分類(lèi)號(hào)】:TN912.34
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 熊勰;劉光遠(yuǎn);溫萬(wàn)惠;;基于智能算法的生理信號(hào)情感識(shí)別[J];計(jì)算機(jī)科學(xué);2011年03期
2 王蓓;王曉蘭;;基于表情和語(yǔ)音的多模態(tài)情感識(shí)別研究[J];信息化研究;2014年01期
3 王海寧;孫守遷;吳劍鋒;;基于混合智能優(yōu)化算法的生理信號(hào)情感識(shí)別[J];電信科學(xué);2010年09期
4 王茜;;音樂(lè)信息中情感特征的提取和研究[J];福建電腦;2008年10期
5 姜曉慶;田嵐;崔國(guó)輝;;多語(yǔ)種情感語(yǔ)音的韻律特征分析和情感識(shí)別研究[J];聲學(xué)學(xué)報(bào);2006年03期
6 王玉晶;莫建麟;;基于TS特征選擇的生理情感狀態(tài)分類(lèi)[J];齊齊哈爾大學(xué)學(xué)報(bào)(自然科學(xué)版);2013年03期
7 林景棟;王唯;廖孝勇;;音樂(lè)粗情感域中的軟切割及分類(lèi)方法[J];計(jì)算機(jī)應(yīng)用;2013年08期
8 喬冠楠;胡劍凌;劉鵬;;聲學(xué)參數(shù)和聽(tīng)覺(jué)參數(shù)結(jié)合的語(yǔ)音情感交叉識(shí)別[J];電聲技術(shù);2009年06期
9 李陽(yáng);田彥濤;陳萬(wàn)忠;;基于半監(jiān)督boosting表面肌電信號(hào)多類(lèi)模式識(shí)別[J];吉林大學(xué)學(xué)報(bào)(工學(xué)版);2013年05期
10 張永皋;馬青玉;孫青;;基于MFCC和CHMM技術(shù)的語(yǔ)音情感分析及其在教育中的應(yīng)用研究[J];南京師范大學(xué)學(xué)報(bào)(工程技術(shù)版);2009年02期
相關(guān)會(huì)議論文 前2條
1 戴明洋;楊大利;徐明星;張永超;陳勝;;面向真實(shí)情感識(shí)別的訓(xùn)練語(yǔ)音選擇研究[A];第十一屆全國(guó)人機(jī)語(yǔ)音通訊學(xué)術(shù)會(huì)議論文集(一)[C];2011年
2 崔玉路;蔣冬梅;張曉靜;謝磊;付中華;Ping Fan;Hichem Sahli;;基于三特征流DBN模型的聽(tīng)視覺(jué)情感識(shí)別[A];第十一屆全國(guó)人機(jī)語(yǔ)音通訊學(xué)術(shù)會(huì)議論文集(一)[C];2011年
相關(guān)博士學(xué)位論文 前1條
1 林奕琳;基于語(yǔ)音信號(hào)的情感識(shí)別研究[D];華南理工大學(xué);2006年
相關(guān)碩士學(xué)位論文 前10條
1 李承程;基于深度學(xué)習(xí)的文本語(yǔ)音耦合情感識(shí)別方法研究[D];合肥工業(yè)大學(xué);2015年
2 沈成業(yè);基于腦電信號(hào)的情感識(shí)別[D];太原理工大學(xué);2017年
3 郭敏;基于腦電圖的誘發(fā)型情感識(shí)別及機(jī)制研究[D];華僑大學(xué);2017年
4 楊敏;非線性特征用于心電信號(hào)的情感識(shí)別[D];西南大學(xué);2013年
5 劉俸汝;基于皮膚電情感識(shí)別的情感調(diào)節(jié)策略研究[D];西南大學(xué);2013年
6 荀立晨;基于心電信號(hào)的情感識(shí)別研究[D];天津理工大學(xué);2013年
7 馬亮軍;基于語(yǔ)音的模糊案例推理情感識(shí)別算法研究[D];華東理工大學(xué);2013年
8 劉碧英;非線性特征組合用于皮膚電情感識(shí)別的研究[D];西南大學(xué);2013年
9 周鈺婷;皮膚電信號(hào)的情感特征提取及分類(lèi)識(shí)別研究[D];西南大學(xué);2012年
10 曹軍;基于量子粒子群算法的心電信號(hào)情感狀態(tài)識(shí)別研究[D];西南大學(xué);2012年
,本文編號(hào):1810775
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/1810775.html