基于卷積神經(jīng)網(wǎng)絡的語音分離方法研究與實現(xiàn)
本文選題:語音分離 切入點:卷積神經(jīng)網(wǎng)絡 出處:《內蒙古大學》2017年碩士論文 論文類型:學位論文
【摘要】:隨著智能手機和智能設備逐漸普及,人機語音交互技術日益得到了廣泛的關注和重視。如何使人機語音交互變得像人與人之間的交流一樣方便和高效成為了最近幾年研究的熱點問題。而人機語音交互技術中核心問題之一是語音分離,前端語音分離模塊的性能對人機交互中的自動語音識別、語音自動翻譯和說話者識別都有十分重要的影響。近幾年隨著深度學習的興起,基于深度模型的語音分離逐漸成為了一種新的研究趨勢,并且得到了較好的語音分離效果。然而,基于卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)的語音分離研究成果還非常少。并且,相比于深度神經(jīng)網(wǎng)絡(Deep Neural Network,DNN),CNN更加擅長于挖掘輸入語音信號中的時空特性,能夠更好地刻畫語音特征。在本文中采用卷積神經(jīng)網(wǎng)絡作為建模工具進行語音分離。本文完成了單通道語音分離和多通道語音分離兩個實驗,其中每個實驗都在相同數(shù)據(jù)集上使用卷積神經(jīng)網(wǎng)絡和深度神經(jīng)網(wǎng)絡兩個模型來分別實現(xiàn)的。單通道語音分離是在標準語音庫TIMIT上進行的實驗,多通道語音分離是在CHIME3官方提供的比賽數(shù)據(jù)上進行的實驗,經(jīng)實驗結果表明,相比于深度神經(jīng)網(wǎng)絡,卷積神經(jīng)網(wǎng)絡能夠在明顯降低模型復雜度和減少訓練權重參數(shù)的同時,估計出具有更高主觀語音質量(Perceptual Evaluation of Speech Quality,PESQ)和短時客觀語音可懂度(Short Time Objective Intelligibility,STOI)的語音。
[Abstract]:With the popularity of smartphones and smart devices, The technology of human-computer speech interaction has been paid more and more attention. How to make human-computer speech interaction as convenient and efficient as the communication between people has become a hot issue in recent years. One of the core issues in interoperability is speech separation. The performance of the front-end speech separation module plays an important role in automatic speech recognition, speech translation and speaker recognition in human-computer interaction. Speech separation based on depth model has gradually become a new research trend, and has obtained better speech separation effect. However, the research results of speech separation based on convolution neural network Convolutional Neural Network (CNN) are still very few. Compared with Deep Neural Network CNN, it is better at mining temporal and spatial characteristics of input speech signals. In this paper, convolution neural network is used as a modeling tool for speech separation. In this paper, two experiments of single channel speech separation and multi channel speech separation are completed. Each experiment is implemented on the same data set using convolution neural network and depth neural network respectively. Single channel speech separation is carried out on the standard speech corpus TIMIT. Multi-channel speech separation is an experiment based on the competition data provided by CHIME3. The experimental results show that compared with the depth neural network, the convolutional neural network can significantly reduce the complexity of the model and reduce the training weight parameters at the same time. The speech with higher subjective Evaluation of Speech quality and short Time Objective intelligibilitySTOI) is estimated.
【學位授予單位】:內蒙古大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:TN912.3
【相似文獻】
相關期刊論文 前10條
1 李從清;孫立新;龍東;任曉光;;語音分離技術的研究現(xiàn)狀與展望[J];聲學技術;2008年05期
2 施劍;杜利民;;基于麥克陣列的實時盲語音分離系統(tǒng)[J];微計算機應用;2008年05期
3 張磊;劉繼芳;項學智;;基于計算聽覺場景分析的混合語音分離[J];計算機工程;2010年14期
4 楊海濱;張軍;;基于模型的單通道語音分離綜述[J];計算機應用研究;2010年11期
5 虞曉,胡光銳;基于高斯混合密度函數(shù)估計的語音分離[J];上海交通大學學報;2000年01期
6 虞曉,胡光銳;基于高斯混合密度函數(shù)估計的語音分離[J];上海交通大學學報;2000年02期
7 張雪峰,劉建強,馮大政;一種快速的頻域盲語音分離系統(tǒng)[J];信號處理;2005年05期
8 陳鍇;盧晶;徐柏齡;;基于話者狀態(tài)檢測的自適應語音分離方法的研究[J];聲學學報;2006年03期
9 董優(yōu)麗;謝勤嵐;;不確定信號源個數(shù)的語音分離[J];現(xiàn)代電子技術;2008年03期
10 徐方鑫;;瑞米茲交替算法在語音分離上的應用[J];電腦知識與技術;2012年03期
相關會議論文 前5條
1 史曉非;王憲峰;黃耀P;劉人杰;;一個推廣參數(shù)矢量算法在語音分離中的應用[A];中國航海學會通信導航專業(yè)委員會2004學術年會論文集[C];2004年
2 劉學觀;陳雪勤;趙鶴鳴;;基于改進遺傳算法的混疊語音分離研究[A];第十屆全國信號處理學術年會(CCSP-2001)論文集[C];2001年
3 林靜然;彭啟琮;邵懷宗;;基于麥克風陣列的雙波束近場定位及語音分離[A];第二屆全國信息獲取與處理學術會議論文集[C];2004年
4 茅泉泉;趙力;;基于MIMO的盲信道語音分離技術[A];2004年全國物理聲學會議論文集[C];2004年
5 李量;杜憶;吳璽宏;Claude Alain;;人類聽皮層在語音分離中對頻率線索和空間線索的線性整合[A];增強心理學服務社會的意識和功能——中國心理學會成立90周年紀念大會暨第十四屆全國心理學學術會議論文摘要集[C];2011年
相關博士學位論文 前3條
1 王燕南;基于深度學習的說話人無關單通道語音分離[D];中國科學技術大學;2017年
2 趙立恒;基于計算聽覺場景分析的單聲道語音分離研究[D];中國科學技術大學;2012年
3 王雨;基于計算聽覺場景分析的單通道語音分離研究[D];華東理工大學;2013年
相關碩士學位論文 前10條
1 趙訓川;基于計算聽覺場景分析和麥克風陣列的語音分離的研究[D];燕山大學;2015年
2 何求知;單通道語音分離關鍵技術研究[D];電子科技大學;2015年
3 曹猛;基于計算聽覺場景分析和深度神經(jīng)網(wǎng)絡的混響語音分離[D];太原理工大學;2016年
4 李梟雄;基于雙耳空間信息的語音分離研究[D];東南大學;2015年
5 王瑜;基于計算聽覺場景分析的三通道語音分離研究[D];燕山大學;2016年
6 王菁;基于計算聽覺場景分析的混合語音分離[D];燕山大學;2016年
7 束佳明;基于雙耳聲源定位的魯棒語音分離研究[D];東南大學;2016年
8 陳麟琳;基于機器學習的欠定語音分離方法研究[D];大連理工大學;2016年
9 李號;基于深度學習的單通道語音分離[D];內蒙古大學;2017年
10 夏莎莎;監(jiān)督性語音分離中訓練目標的研究[D];內蒙古大學;2017年
,本文編號:1639382
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/1639382.html