天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 信息工程論文 >

基于雙耳聲源定位的魯棒語音分離研究

發(fā)布時間:2017-03-26 09:06

  本文關(guān)鍵詞:基于雙耳聲源定位的魯棒語音分離研究,,由筆耕文化傳播整理發(fā)布。


【摘要】:語音分離技術(shù)是語音信號處理系統(tǒng)的重要前端,其性能表現(xiàn)對整個系統(tǒng)影響非常大。以往的研究大多做的是固定目標聲源方位的語音分離研究,且在混響與噪聲的環(huán)境下性能下降十分明顯。本文從人耳的感知特性出發(fā),以雙耳空間信息為基礎(chǔ),研究魯棒的語音分離算法。本文提出的算法主要包含兩大部分:基于深度神經(jīng)網(wǎng)絡(luò)的雙耳聲源定位算法和定位與分離的迭代方法。(1)基于深度神經(jīng)網(wǎng)絡(luò)的雙耳聲源定位算法。人耳聽覺系統(tǒng)和神經(jīng)系統(tǒng)對聲信號層層遞進的處理方式與近年來在機器學習領(lǐng)域非;馃岬纳疃壬窠(jīng)網(wǎng)絡(luò)對輸入信號的處理方式有一定的相似之處。本文將雙耳語音定位問題視為一個多分類的問題,訓練一個頂層為softmax回歸結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),輸出聲源處于每個方位的概率,取最大概率方位為聲源位置。在處理定位問題時,本文提取的雙耳特征線索是互相關(guān)函數(shù)CCF(Cross Correlation Function)和耳間強度差I(lǐng)ID(Interaural Intensity Difference).在實驗中,本文選取了定位準確率作為評價標準。在高信噪比和短混響時間的環(huán)境下,本文提出的定位算法有接近100%的準確率;在低信噪比和長混響時間的環(huán)境下,本文提出的定位算法的準確率在70%以上。(2)定位與分離的迭代方法。本文中使用了耳間時間差I(lǐng)TD(Interaural Time Difference)和耳間強度差I(lǐng)ID計算IBM(Ideal Binary Mask)的方法實現(xiàn)語音分離。為了進一步增強算法的魯棒性,本文提出了聲源定位與語音分離迭代的方法。整個分離過程簡單而言,首先根據(jù)空間線索對混合語音中的多個聲源進行定位,將定位作為分離的依據(jù),來實現(xiàn)不同聲源數(shù)據(jù)流的重構(gòu);隨后對各個重構(gòu)之后的語音信號重新估計聲源方位,再使用修正后的聲源方位對混合語音重新進行分離。在迭代若干次之后,輸出最后一次重構(gòu)的語音信號作為分離結(jié)果。在實驗中,本文選擇了PESQ(Perceptual Evaluation of Speech Quality)來評估分離語音的質(zhì)量。在高信噪比和短混響時間的環(huán)境下,本文提出的分離算法的PESQ得分在2.5左右;低信噪比和長混響時間的環(huán)境下,本文提出的分析算法的PESQ得分在1.6左右。論文中使用的計算機合成雙耳信號采用了MIT媒體實驗室提供的HRTF(Head Related Transfer Function)與單聲道語音卷積合成,實際采集的雙耳信號在實驗室的消聲室中采用KERMAR人工頭采集完成。
【關(guān)鍵詞】:雙耳聲源定位 深度神經(jīng)網(wǎng)絡(luò) 語音分離 迭代
【學位授予單位】:東南大學
【學位級別】:碩士
【學位授予年份】:2016
【分類號】:TN912.3;TP183
【目錄】:
  • 摘要5-6
  • Abstract6-9
  • 第一章 緒論9-15
  • 1.1 語音分離技術(shù)的研究背景和意義9-10
  • 1.2 語音分離技術(shù)的研究現(xiàn)狀10-12
  • 1.3 論文主要研究內(nèi)容及目標12-13
  • 1.3.1 雙耳語音多聲源定位12-13
  • 1.3.2 聲源定位和語音分離的迭代結(jié)構(gòu)13
  • 1.4 論文組織結(jié)構(gòu)13-15
  • 第二章 基于雙耳空間定位的語音分離方法介紹15-31
  • 2.1 人類的聽覺系統(tǒng)15-16
  • 2.1.1 人耳生理構(gòu)造與聽覺特點15
  • 2.1.2 空間聽覺15-16
  • 2.2 雙耳聲源定位線索16-20
  • 2.2.1 耳間時間差17-18
  • 2.2.2 耳間強度差18-19
  • 2.2.3 雙耳互相關(guān)函數(shù)19-20
  • 2.3 神經(jīng)網(wǎng)絡(luò)簡介20-23
  • 2.3.1 神經(jīng)元20-21
  • 2.3.2 淺層神經(jīng)網(wǎng)絡(luò)21-22
  • 2.3.3 深度神經(jīng)網(wǎng)絡(luò)22-23
  • 2.4 雙耳語音信號的采集23-27
  • 2.4.1 與頭相關(guān)傳遞函數(shù)23-24
  • 2.4.2 計算機合成雙耳信號24-26
  • 2.4.3 人工頭采集雙耳信號26-27
  • 2.5 基于雙耳空間定位的語音分離概述27-30
  • 2.5.1 原有的語音定位分離算法27-28
  • 2.5.2 魯棒性語音分離算法28-29
  • 2.5.3 實驗與性能評估方法29-30
  • 2.6 本章小結(jié)30-31
  • 第三章 基于DNN的雙耳聲源定位算法31-47
  • 3.1 雙耳空間線索提取31-34
  • 3.1.1 預處理31-33
  • 3.1.2 特征提取33-34
  • 3.2 對ITD定位方法的改進34-36
  • 3.3 基于DNN的聲源定位方法36-43
  • 3.3.1 DNN結(jié)構(gòu)36-39
  • 3.3.2 DNN訓練算法39-42
  • 3.3.3 訓練數(shù)據(jù)42
  • 3.3.4 訓練參數(shù)42-43
  • 3.4 定位效果的評估43-46
  • 3.5 本章小結(jié)46-47
  • 第四章 定位與分離的迭代方法47-61
  • 4.1 迭代框架47-48
  • 4.2 混合語音的首次定位48
  • 4.3 分離方法48-49
  • 4.4 重定位與重分離方法49-50
  • 4.5 實驗與仿真50-59
  • 4.5.1 適定聲源的迭代定位測試50-52
  • 4.5.2 欠定聲源的迭代定位測試52-56
  • 4.5.3 分離語音的質(zhì)量測試56-59
  • 4.6 本章小結(jié)59-61
  • 第五章 總結(jié)與展望61-63
  • 5.1 總結(jié)61-62
  • 5.2 展望62-63
  • 致謝63-65
  • 參考文獻65-69
  • 攻讀碩士學位期間參加的科研項目和完成的論文69

【相似文獻】

中國期刊全文數(shù)據(jù)庫 前10條

1 施劍;杜利民;;基于麥克陣列的實時盲語音分離系統(tǒng)[J];微計算機應用;2008年05期

2 張磊;劉繼芳;項學智;;基于計算聽覺場景分析的混合語音分離[J];計算機工程;2010年14期

3 楊海濱;張軍;;基于模型的單通道語音分離綜述[J];計算機應用研究;2010年11期

4 虞曉,胡光銳;基于高斯混合密度函數(shù)估計的語音分離[J];上海交通大學學報;2000年01期

5 虞曉,胡光銳;基于高斯混合密度函數(shù)估計的語音分離[J];上海交通大學學報;2000年02期

6 張雪峰,劉建強,馮大政;一種快速的頻域盲語音分離系統(tǒng)[J];信號處理;2005年05期

7 陳鍇;盧晶;徐柏齡;;基于話者狀態(tài)檢測的自適應語音分離方法的研究[J];聲學學報;2006年03期

8 董優(yōu)麗;謝勤嵐;;不確定信號源個數(shù)的語音分離[J];現(xiàn)代電子技術(shù);2008年03期

9 徐方鑫;;瑞米茲交替算法在語音分離上的應用[J];電腦知識與技術(shù);2012年03期

10 劉俊良;于鳳芹;;基于分離度變步長的自然梯度算法的語音分離[J];計算機工程與應用;2013年21期

中國重要會議論文全文數(shù)據(jù)庫 前5條

1 史曉非;王憲峰;黃耀P;劉人杰;;一個推廣參數(shù)矢量算法在語音分離中的應用[A];中國航海學會通信導航專業(yè)委員會2004學術(shù)年會論文集[C];2004年

2 劉學觀;陳雪勤;趙鶴鳴;;基于改進遺傳算法的混疊語音分離研究[A];第十屆全國信號處理學術(shù)年會(CCSP-2001)論文集[C];2001年

3 林靜然;彭啟琮;邵懷宗;;基于麥克風陣列的雙波束近場定位及語音分離[A];第二屆全國信息獲取與處理學術(shù)會議論文集[C];2004年

4 茅泉泉;趙力;;基于MIMO的盲信道語音分離技術(shù)[A];2004年全國物理聲學會議論文集[C];2004年

5 李量;杜憶;吳璽宏;Claude Alain;;人類聽皮層在語音分離中對頻率線索和空間線索的線性整合[A];增強心理學服務(wù)社會的意識和功能——中國心理學會成立90周年紀念大會暨第十四屆全國心理學學術(shù)會議論文摘要集[C];2011年

中國博士學位論文全文數(shù)據(jù)庫 前2條

1 趙立恒;基于計算聽覺場景分析的單聲道語音分離研究[D];中國科學技術(shù)大學;2012年

2 王雨;基于計算聽覺場景分析的單通道語音分離研究[D];華東理工大學;2013年

中國碩士學位論文全文數(shù)據(jù)庫 前10條

1 趙訓川;基于計算聽覺場景分析和麥克風陣列的語音分離的研究[D];燕山大學;2015年

2 曹猛;基于計算聽覺場景分析和深度神經(jīng)網(wǎng)絡(luò)的混響語音分離[D];太原理工大學;2016年

3 李梟雄;基于雙耳空間信息的語音分離研究[D];東南大學;2015年

4 王瑜;基于計算聽覺場景分析的三通道語音分離研究[D];燕山大學;2016年

5 王菁;基于計算聽覺場景分析的混合語音分離[D];燕山大學;2016年

6 束佳明;基于雙耳聲源定位的魯棒語音分離研究[D];東南大學;2016年

7 何求知;單通道語音分離關(guān)鍵技術(shù)研究[D];電子科技大學;2015年

8 張暉;層疊與深度神經(jīng)網(wǎng)絡(luò)研究及其在語音分離中的應用[D];內(nèi)蒙古大學;2014年

9 童開國;多聲源環(huán)境下基于聽覺中樞系統(tǒng)的語音分離研究[D];重慶郵電大學;2012年

10 陳雪勤;基于計算聲場景分析的混疊語音分離研究[D];蘇州大學;2002年


  本文關(guān)鍵詞:基于雙耳聲源定位的魯棒語音分離研究,由筆耕文化傳播整理發(fā)布。



本文編號:268567

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/268567.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶dc089***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com