天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)音情感識(shí)別方法研究

發(fā)布時(shí)間:2021-02-07 15:24
  隨著計(jì)算機(jī)行業(yè)的不斷發(fā)展,人工智能走進(jìn)人們的生活,通過(guò)語(yǔ)音實(shí)現(xiàn)人機(jī)交互正逐漸成為主流的人機(jī)交互方式。語(yǔ)音情感識(shí)別能夠讓機(jī)器感知人類(lèi)的情緒,聽(tīng)懂人的情感,在心理健康狀態(tài)監(jiān)控、教育輔助、個(gè)性化內(nèi)容推薦、客服質(zhì)量監(jiān)控方面都具有廣泛應(yīng)用前景。但目前語(yǔ)音情感識(shí)別系統(tǒng)的識(shí)別率較低,不足以大規(guī)模商用,因此,提高情感識(shí)別準(zhǔn)確度是一個(gè)亟待解決的難題。語(yǔ)音情感識(shí)別的系統(tǒng)框架主要包括兩部分:語(yǔ)音情感特征提取和情感分類(lèi)。本文在語(yǔ)音情感特征提取和情感識(shí)別網(wǎng)絡(luò)模型方面做了以下工作:1.提出一種基于語(yǔ)譜圖的RGB統(tǒng)計(jì)譜圖的新特征。在原有語(yǔ)譜圖的基礎(chǔ)上,首先運(yùn)用圖像處理的方法,對(duì)語(yǔ)譜圖提取RGB分量,生成新的三種RGB譜圖;其次,利用統(tǒng)計(jì)學(xué)函數(shù)對(duì)RGB分量圖譜進(jìn)行擴(kuò)維,生成新的統(tǒng)計(jì)圖譜;最后,在擁有4層卷積的CNN網(wǎng)絡(luò)上進(jìn)行特征有效性驗(yàn)證。仿真實(shí)驗(yàn)結(jié)果顯示,均值譜圖識(shí)別準(zhǔn)確率為57.2%,方差譜圖識(shí)別準(zhǔn)確率為68.1%,最大值譜圖識(shí)別準(zhǔn)確率為54.2%。實(shí)驗(yàn)表明本文改進(jìn)的RGB統(tǒng)計(jì)圖譜可以實(shí)現(xiàn)對(duì)語(yǔ)音情感的分類(lèi),新特征有效。2.針對(duì)語(yǔ)音信號(hào)的時(shí)序性特點(diǎn),使用有記憶特性的長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)進(jìn)行語(yǔ)音情感分類(lèi)。針對(duì)不同語(yǔ)音特... 

【文章來(lái)源】:遼寧科技大學(xué)遼寧省

【文章頁(yè)數(shù)】:71 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)音情感識(shí)別方法研究


語(yǔ)音情感識(shí)別系統(tǒng)框圖

模型圖,情感空間,效價(jià),情感


2.語(yǔ)音情感識(shí)別基礎(chǔ)12圖2.2喚醒度與效價(jià)的情感空間模型Fig.2.2EmotionalspacemodelofArousal-Valence2.3語(yǔ)音情感語(yǔ)料庫(kù)現(xiàn)階段進(jìn)行的語(yǔ)音情感研究,大都是在專(zhuān)門(mén)的語(yǔ)音情感數(shù)據(jù)庫(kù)上進(jìn)行的,一方面是因?yàn)檫@種專(zhuān)業(yè)的語(yǔ)料庫(kù)采集到底語(yǔ)料資源比較全面,在語(yǔ)音信號(hào)的處理上,也做得比較好,對(duì)于情感的標(biāo)簽備注,相對(duì)比較統(tǒng)一,對(duì)情感的測(cè)試驗(yàn)證體系相對(duì)完備,認(rèn)可度高,用自己構(gòu)建的情感數(shù)據(jù)庫(kù),情感認(rèn)可度可能不足,再有就是對(duì)于前期的數(shù)據(jù)采集,實(shí)驗(yàn)設(shè)備也沒(méi)有專(zhuān)業(yè)的實(shí)驗(yàn)室完備,所以綜合幾方面的原因,大多數(shù)的情感識(shí)別研究,所使用的數(shù)據(jù)還都是正規(guī)的情感語(yǔ)料庫(kù)數(shù)據(jù),很少有自己構(gòu)建的數(shù)據(jù)庫(kù)。這些專(zhuān)業(yè)的情感語(yǔ)料庫(kù),在演繹情感的方法上,一般可以分為3類(lèi),第一種是模擬情感,通過(guò)前期的情緒醞釀,已到達(dá)對(duì)情感的充分表達(dá),這種是有針對(duì)性的自主引導(dǎo)的;第二種是被引發(fā)情感,通過(guò)將一些帶有特定情感的故事,或是看一些帶有濃重感情色彩的影片,激發(fā)說(shuō)話(huà)者情感;第三種是自發(fā)式情感,不帶前兩種的引導(dǎo)色彩,全憑演繹者自發(fā)展現(xiàn)各種感情,相對(duì)的這種語(yǔ)料庫(kù)較少,F(xiàn)在的多數(shù)語(yǔ)料庫(kù)大都采用表演的方式,以確保感情的充沛。表2.2列舉了4個(gè)常用的情感數(shù)據(jù)庫(kù),通過(guò)對(duì)比可以看出,現(xiàn)有的數(shù)據(jù)庫(kù)大都為表演性情感表達(dá),并且數(shù)據(jù)庫(kù)規(guī)模差別也比較大。所以在研究中數(shù)據(jù)庫(kù)的選取對(duì)實(shí)驗(yàn)結(jié)果影響不可忽視。

特性圖,數(shù)字濾波器,相頻,幅頻特性


遼寧科技大學(xué)碩士學(xué)位論文173.語(yǔ)音信號(hào)的預(yù)處理語(yǔ)音信號(hào)的預(yù)處理一般分為3個(gè)步驟:第一步,預(yù)加重;第二步,分幀加窗;第三步,端點(diǎn)檢測(cè)。3.1語(yǔ)音信號(hào)語(yǔ)處理3.1.1預(yù)加重預(yù)加重,是語(yǔ)音信號(hào)預(yù)處理的第一步,之所以在最開(kāi)始進(jìn)行預(yù)加重處理,主要是因?yàn),聲音都是由聲帶振?dòng)發(fā)出的,聲音經(jīng)過(guò)聲帶后,還要經(jīng)過(guò)口腔,在這個(gè)過(guò)程中,由于口唇輻射對(duì)語(yǔ)音信號(hào)存在的影響,使得聲音信號(hào)在高頻部分對(duì)這種影響表現(xiàn)得非常明顯,具體表現(xiàn)為出現(xiàn)了高頻跌落現(xiàn)象,預(yù)加重就是為了對(duì)這個(gè)問(wèn)題進(jìn)行處理。它通過(guò)使用數(shù)字濾波器,升高語(yǔ)音信號(hào)高頻部分,有效緩解高頻部分語(yǔ)音成分過(guò)小的現(xiàn)象。語(yǔ)音信號(hào)的預(yù)加重一般通過(guò)一階FIR高通數(shù)字濾波器來(lái)實(shí)現(xiàn),該濾波器的傳遞函數(shù)是為:1z1)(zH(3.1)式中,α為預(yù)加重系數(shù),0.9<α<1.0。高通數(shù)字濾波器的幅頻特性和相頻特性如下圖3.1所示。圖3.1數(shù)字濾波器的幅頻特性與相頻特性Fig.3.1Amplitude-frequencycharacteristicsandphase-frequencycharacteristicsofdigitalfilters設(shè)n時(shí)刻的語(yǔ)音采樣值為x(n),經(jīng)過(guò)預(yù)加重處理后的結(jié)果為y()=()(1),這里=0.98。

【參考文獻(xiàn)】:
期刊論文
[1]基于改進(jìn)BP-Adaboost和HMM混合模型的方言情感識(shí)別[J]. 冀常鵬,程琳,李鋒.  成都信息工程大學(xué)學(xué)報(bào). 2019(05)
[2]利用語(yǔ)音與文本特征融合改善語(yǔ)音情感識(shí)別[J]. 馮亞琴,沈凌潔,胡婷婷,王蔚.  數(shù)據(jù)采集與處理. 2019(04)
[3]基于語(yǔ)譜圖提取深度空間注意特征的語(yǔ)音情感識(shí)別算法[J]. 王金華,應(yīng)娜,朱辰都,劉兆森,蔡哲棟.  電信科學(xué). 2019(07)
[4]用于跨庫(kù)語(yǔ)音情感識(shí)別的DBN特征融合方法[J]. 張昕然,巨曉正,宋鵬,查誠(chéng),趙力.  信號(hào)處理. 2017(05)
[5]基于語(yǔ)譜圖和卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)音情感識(shí)別[J]. 田熙燕,徐君鵬,杜留鋒.  河南科技學(xué)院學(xué)報(bào)(自然科學(xué)版). 2017(02)
[6]面向非平衡文本情感分類(lèi)的TSF特征選擇方法[J]. 王杰,李德玉,王素格.  計(jì)算機(jī)科學(xué). 2016(10)
[7]基于卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)音情感識(shí)別方法[J]. 邵兵,杜鵬飛.  科技創(chuàng)新導(dǎo)報(bào). 2016(06)
[8]基于稀疏特征遷移的語(yǔ)音情感識(shí)別[J]. 宋鵬,金赟,查誠(chéng),趙力.  數(shù)據(jù)采集與處理. 2016(02)
[9]基于模糊K近鄰的語(yǔ)音情感識(shí)別[J]. 紀(jì)正飚,王吉林,趙力.  微電子學(xué)與計(jì)算機(jī). 2015(03)
[10]基于多模態(tài)信息融合的語(yǔ)音意圖理解方法[J]. 鄭彬彬,賈珈,蔡蓮紅.  中國(guó)科技論文在線(xiàn). 2011(07)

博士論文
[1]基于特征學(xué)習(xí)的語(yǔ)音情感識(shí)別算法研究[D]. 查誠(chéng).東南大學(xué) 2017
[2]基于聽(tīng)覺(jué)仿生的目標(biāo)聲音識(shí)別系統(tǒng)研究[D]. 張文娟.中國(guó)科學(xué)院研究生院(長(zhǎng)春光學(xué)精密機(jī)械與物理研究所) 2012
[3]語(yǔ)音情感識(shí)別的關(guān)鍵技術(shù)研究[D]. 尤鳴宇.浙江大學(xué) 2007
[4]基于語(yǔ)音信號(hào)的情感識(shí)別研究[D]. 金學(xué)成.中國(guó)科學(xué)技術(shù)大學(xué) 2007

碩士論文
[1]基于深度學(xué)習(xí)的表情和姿態(tài)雙模態(tài)情感識(shí)別[D]. 郭迪.南京郵電大學(xué) 2019
[2]語(yǔ)音情感識(shí)別中語(yǔ)譜圖紋理特征提取算法研究[D]. 劉泳海.合肥工業(yè)大學(xué) 2018



本文編號(hào):3022425

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3022425.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)e9225***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com