天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 信息工程論文 >

基于機(jī)器學(xué)習(xí)的欠定語音分離方法研究

發(fā)布時間:2017-11-01 03:28

  本文關(guān)鍵詞:基于機(jī)器學(xué)習(xí)的欠定語音分離方法研究


  更多相關(guān)文章: 單路源提取 單通道語音分離 softmax 深度神經(jīng)網(wǎng)絡(luò) 區(qū)分性目標(biāo)函數(shù)


【摘要】:語音分離技術(shù)在語音識別和說話人識別等語音處理系統(tǒng)中發(fā)揮著重要作用,高質(zhì)量語音不僅能更好地滿足入耳聽覺需求,也是后續(xù)語音處理的重要保障。實(shí)際環(huán)境中的語音往往會受到干擾,這使得語音分離多年來一直受到研究者關(guān)注。語音分離的核心思想是模擬人的聽覺系統(tǒng)從復(fù)雜的混合信號中將各路源信號單獨(dú)分離出來。本文致力于研究欠定條件下的語音分離方法,主要研究成果包含以下幾個方面:(1)本文提出一種將傳統(tǒng)逐層分離與softmax分類器結(jié)合的單路源信號提取方法,該方法適用于從幾路觀測信號中抽取出某一路感興趣的目標(biāo)語音。首先,以目標(biāo)人任意一段語音作為參考信號,然后對觀測信號提取單源點(diǎn)并利用單源點(diǎn)特征訓(xùn)練softmax分類器,接著用訓(xùn)練好的softmax模型對參考信號特征進(jìn)行分類,確定待提取的目標(biāo)人語音,最后通過構(gòu)造消源矩陣逐次消源,以分層的方式來分離各個時頻點(diǎn)。與對比方法相比,該方法具有較低運(yùn)算復(fù)雜度,同時不需要太多的先驗(yàn)信息。(2)基于深度神經(jīng)網(wǎng)絡(luò)強(qiáng)大的非線性映射和自學(xué)習(xí)能力,本文提出一種有監(jiān)督的、強(qiáng)區(qū)分性的單通道語音分離方法。首先,本文將信號的相關(guān)系數(shù)和負(fù)熵加入目標(biāo)函數(shù),從而降低信號間的干擾。此外,為了提高學(xué)習(xí)系統(tǒng)的泛化能力,本文將類似人腦學(xué)習(xí)規(guī)則的課程學(xué)習(xí)融入神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)中,使得神經(jīng)網(wǎng)絡(luò)從易到難學(xué)習(xí)訓(xùn)練樣本。不管是與基于非負(fù)矩陣分解的方法相比,還是和其他基于深度神經(jīng)網(wǎng)絡(luò)的方法比較,本文提出的方法都具備更好的分離性能。(3)本文研究了將矩陣分解和深度神經(jīng)網(wǎng)絡(luò)結(jié)合解決單通道語音分離問題。首先,分別對源信號進(jìn)行矩陣分解得到字典和編碼矩陣,接著用源信號編碼矩陣和混合信號訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),用深度神經(jīng)網(wǎng)絡(luò)預(yù)測編碼矩陣,最后,對于測試的混合信號,將源信號的字典和神經(jīng)網(wǎng)絡(luò)預(yù)測的編碼矩陣相乘,即可恢復(fù)源信號。與傳統(tǒng)的基于矩陣分解的單通道分離方法相比,該方法能更準(zhǔn)確地估計(jì)編碼矩陣,但需要以增加深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練這一過程為代價(jià)。本文在TIMIT語音庫上進(jìn)行了一系列的計(jì)算機(jī)仿真實(shí)驗(yàn),將本文提出方法與對比方法在評價(jià)體系下進(jìn)行比較,實(shí)驗(yàn)結(jié)果證明了提出方法有更好的性能。
【關(guān)鍵詞】:單路源提取 單通道語音分離 softmax 深度神經(jīng)網(wǎng)絡(luò) 區(qū)分性目標(biāo)函數(shù)
【學(xué)位授予單位】:大連理工大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TN912.3
【目錄】:
  • 摘要4-5
  • Abstract5-9
  • 1 緒論9-13
  • 1.1 語音分離技術(shù)研究背景及意義9-10
  • 1.2 欠定語音分離技術(shù)研究概況10-11
  • 1.3 本文主要研究內(nèi)容及章節(jié)安排11-13
  • 2 語音處理的基礎(chǔ)概念和基本原理13-20
  • 2.1 欠定語音分離的數(shù)學(xué)建模13-14
  • 2.2 語音信號的特性分析14-16
  • 2.3 語音特征簡介16-18
  • 2.4 欠定語音分離性能評價(jià)體系18-19
  • 2.5 本章小結(jié)19-20
  • 3 基于逐層分離和Softmax的單路源信號提取20-36
  • 3.1 系統(tǒng)框圖和原理簡介20-22
  • 3.2 基于逐層分離和Softmax的單路源信號提取22-31
  • 3.2.1 時頻點(diǎn)的分離和消源矩陣的構(gòu)建22-28
  • 3.2.2 Softmax的訓(xùn)練和分類28-31
  • 3.3 計(jì)算機(jī)仿真實(shí)驗(yàn)結(jié)果31-35
  • 3.3.1 語音混合的單路源提取31-32
  • 3.3.2 語音與音樂混合的單路源提取32-33
  • 3.3.3 語音與噪聲混合的單路源提取33-35
  • 3.4 本章小結(jié)35-36
  • 4 基于深度神經(jīng)網(wǎng)絡(luò)的單通道語音分離36-51
  • 4.1 系統(tǒng)框圖和原理簡介36-37
  • 4.2 基于深度神經(jīng)網(wǎng)絡(luò)的單通道語音分離37-47
  • 4.2.1 深度神經(jīng)網(wǎng)絡(luò)37-41
  • 4.2.2 強(qiáng)區(qū)分性目標(biāo)函數(shù)41-45
  • 4.2.3 基于課程學(xué)習(xí)的訓(xùn)練方法45-47
  • 4.3 計(jì)算機(jī)仿真實(shí)驗(yàn)結(jié)果47-49
  • 4.3.1 實(shí)驗(yàn)參數(shù)設(shè)置47-48
  • 4.3.2 實(shí)驗(yàn)結(jié)果與分析48-49
  • 4.4 本章小結(jié)49-51
  • 5 基于矩陣分解和深度神經(jīng)網(wǎng)絡(luò)的單通道語音分離51-61
  • 5.1 系統(tǒng)框圖和原理簡介51-52
  • 5.2 基于矩陣分解和深度神經(jīng)網(wǎng)絡(luò)的單通道語音分離52-57
  • 5.2.1 非負(fù)矩陣分解與深度神經(jīng)網(wǎng)絡(luò)的結(jié)合52-54
  • 5.2.2 稀疏表示與深度神經(jīng)網(wǎng)絡(luò)的結(jié)合54-57
  • 5.3 計(jì)算機(jī)仿真實(shí)驗(yàn)結(jié)果57-60
  • 5.3.1 非負(fù)矩陣分解與深度神經(jīng)網(wǎng)絡(luò)的結(jié)合57-58
  • 5.3.2 稀疏表示與深度神經(jīng)網(wǎng)絡(luò)的結(jié)合58-59
  • 5.3.3 實(shí)驗(yàn)對比和分析59-60
  • 5.4 本章小結(jié)60-61
  • 結(jié)論61-63
  • 參考文獻(xiàn)63-68
  • 攻讀碩士學(xué)位期間發(fā)表學(xué)術(shù)論文情況68-69
  • 致謝69-70

【相似文獻(xiàn)】

中國期刊全文數(shù)據(jù)庫 前10條

1 施劍;杜利民;;基于麥克陣列的實(shí)時盲語音分離系統(tǒng)[J];微計(jì)算機(jī)應(yīng)用;2008年05期

2 張磊;劉繼芳;項(xiàng)學(xué)智;;基于計(jì)算聽覺場景分析的混合語音分離[J];計(jì)算機(jī)工程;2010年14期

3 楊海濱;張軍;;基于模型的單通道語音分離綜述[J];計(jì)算機(jī)應(yīng)用研究;2010年11期

4 虞曉,胡光銳;基于高斯混合密度函數(shù)估計(jì)的語音分離[J];上海交通大學(xué)學(xué)報(bào);2000年01期

5 虞曉,胡光銳;基于高斯混合密度函數(shù)估計(jì)的語音分離[J];上海交通大學(xué)學(xué)報(bào);2000年02期

6 張雪峰,劉建強(qiáng),馮大政;一種快速的頻域盲語音分離系統(tǒng)[J];信號處理;2005年05期

7 陳鍇;盧晶;徐柏齡;;基于話者狀態(tài)檢測的自適應(yīng)語音分離方法的研究[J];聲學(xué)學(xué)報(bào);2006年03期

8 董優(yōu)麗;謝勤嵐;;不確定信號源個數(shù)的語音分離[J];現(xiàn)代電子技術(shù);2008年03期

9 徐方鑫;;瑞米茲交替算法在語音分離上的應(yīng)用[J];電腦知識與技術(shù);2012年03期

10 劉俊良;于鳳芹;;基于分離度變步長的自然梯度算法的語音分離[J];計(jì)算機(jī)工程與應(yīng)用;2013年21期

中國重要會議論文全文數(shù)據(jù)庫 前5條

1 史曉非;王憲峰;黃耀P;劉人杰;;一個推廣參數(shù)矢量算法在語音分離中的應(yīng)用[A];中國航海學(xué)會通信導(dǎo)航專業(yè)委員會2004學(xué)術(shù)年會論文集[C];2004年

2 劉學(xué)觀;陳雪勤;趙鶴鳴;;基于改進(jìn)遺傳算法的混疊語音分離研究[A];第十屆全國信號處理學(xué)術(shù)年會(CCSP-2001)論文集[C];2001年

3 林靜然;彭啟琮;邵懷宗;;基于麥克風(fēng)陣列的雙波束近場定位及語音分離[A];第二屆全國信息獲取與處理學(xué)術(shù)會議論文集[C];2004年

4 茅泉泉;趙力;;基于MIMO的盲信道語音分離技術(shù)[A];2004年全國物理聲學(xué)會議論文集[C];2004年

5 李量;杜憶;吳璽宏;Claude Alain;;人類聽皮層在語音分離中對頻率線索和空間線索的線性整合[A];增強(qiáng)心理學(xué)服務(wù)社會的意識和功能——中國心理學(xué)會成立90周年紀(jì)念大會暨第十四屆全國心理學(xué)學(xué)術(shù)會議論文摘要集[C];2011年

中國博士學(xué)位論文全文數(shù)據(jù)庫 前2條

1 趙立恒;基于計(jì)算聽覺場景分析的單聲道語音分離研究[D];中國科學(xué)技術(shù)大學(xué);2012年

2 王雨;基于計(jì)算聽覺場景分析的單通道語音分離研究[D];華東理工大學(xué);2013年

中國碩士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 趙訓(xùn)川;基于計(jì)算聽覺場景分析和麥克風(fēng)陣列的語音分離的研究[D];燕山大學(xué);2015年

2 何求知;單通道語音分離關(guān)鍵技術(shù)研究[D];電子科技大學(xué);2015年

3 曹猛;基于計(jì)算聽覺場景分析和深度神經(jīng)網(wǎng)絡(luò)的混響語音分離[D];太原理工大學(xué);2016年

4 李梟雄;基于雙耳空間信息的語音分離研究[D];東南大學(xué);2015年

5 王瑜;基于計(jì)算聽覺場景分析的三通道語音分離研究[D];燕山大學(xué);2016年

6 王菁;基于計(jì)算聽覺場景分析的混合語音分離[D];燕山大學(xué);2016年

7 束佳明;基于雙耳聲源定位的魯棒語音分離研究[D];東南大學(xué);2016年

8 陳麟琳;基于機(jī)器學(xué)習(xí)的欠定語音分離方法研究[D];大連理工大學(xué);2016年

9 張暉;層疊與深度神經(jīng)網(wǎng)絡(luò)研究及其在語音分離中的應(yīng)用[D];內(nèi)蒙古大學(xué);2014年

10 童開國;多聲源環(huán)境下基于聽覺中樞系統(tǒng)的語音分離研究[D];重慶郵電大學(xué);2012年



本文編號:1125069

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/1125069.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶5f6b2***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com