基于稀疏表示和深度學習的有監(jiān)督語音增強算法研究
發(fā)布時間:2021-01-07 08:49
作為語言符號系統(tǒng)的載體,語音是人類表達思想和情感的重要工具之一。然而,現(xiàn)實生產(chǎn)生活中無處不在的干擾和噪聲使得語音信號經(jīng)常受到污染,導致語音的質(zhì)量和可懂度降低,引起人類主觀聽覺感受的不適,也給語音識別等后端應用帶來了挑戰(zhàn)。因此,語音增強一直都是語音信號處理領域的一個重要課題,它被具體定義為干凈語音在受到來自各種噪聲干擾時,利用一定的技術手段抑制和消除噪聲,以提升該段語音的質(zhì)量和可理解性。自20世紀70年代以來,研究學者就開始致力于單通道語音增強算法的研究,相繼提出了譜減法、基于統(tǒng)計模型的算法和子空間算法等傳統(tǒng)語音增強算法,但這類算法通常需要對語音信號和噪聲各自的特性以及彼此是否相關等方面做出一定的前提假設,使其增強性能受到了限制。尤其是在處理非平穩(wěn)噪聲的情況下,往往會引入一些非線性的失真,影響語音的聽覺感受以及后端的語音識別編碼等處理。近些年來隨著科技的進步,語音數(shù)據(jù)的采集變得快捷方便,基于數(shù)據(jù)驅(qū)動的有監(jiān)督語音增強算法也應運而生。這類算法的核心思想是通過模型挖掘訓練數(shù)據(jù)的特征和性質(zhì),無需依賴任何前提假設,使得這類方法能夠適用于相對復雜的聲學環(huán)境;诖,本文結合近些年迅速發(fā)展的稀疏表示理...
【文章來源】:中國科學技術大學安徽省 211工程院校 985工程院校
【文章頁數(shù)】:94 頁
【學位級別】:碩士
【部分圖文】:
圖1.1典型的智能會議系統(tǒng)中語音信號處理框架??
?第2章單通道語音增強技術基礎???■??■?U??1|?—-鬥?國??_?Hr^izli?…一;ifLndj?U??3?=?:—」:—」?y?__??:.......i?—?M?—?一—?M?M…:?■?I:??jb?m??B?_?一?HI?■?H?_??…..i_j—...'HHHj—[ABLjIJIj??Luj—」jigiiiilmid??x?D?c??圖2.3信號稀疏表示示意圖:每個小方框代表向量或矩陣的一個元素,方框的灰度值越低??(越黑)表示該元素的數(shù)值越大,灰度值越高(越白)表示數(shù)值越小??式中,g是稀疏表示系數(shù)C的稀疏度約束,f是設置的稀疏表示誤差閾值,/(c)是??對向量c的稀疏性度量函數(shù),常用的有仏和、范數(shù)。當采用/Q范數(shù)時,目標函??數(shù)則為非凸問題,相應的稀疏表示算法常用的有MP算法[38]和OMP算法[33_34];??當/〇范數(shù)松弛到/i范數(shù)的情況下,形如式(2.36)的問題被稱為LASSO問題[84],??形如式(2.37)的問題被稱為基追蹤去噪問題(Basis?Pursuit?Denoising)[8:l1,對于這??類問題常用的稀疏表示算法有BP算法【38]和LARS算法在此章節(jié)中,我??們將簡要介紹一下常用的幾種稀疏表示算法。??1.?OMP算法??對于/〇約束的非凸問題,也是NP-Hard問題,學者們常采用貪婪追蹤算法??來解決此類問題,其中最著名的當屬OMP算法[33-34】。OMP算法是基于MP算??法改進而來的,MP算法是通過不斷迭代選擇當前與信號或者殘值最匹配的原子??來計算稀疏表示系數(shù)的,但是該算法并不能保證
?第2章單通道語音增強技術基礎???參??圖2.4?FNN的網(wǎng)絡框架示意圖??活函數(shù)”。如不特別說明,激活函數(shù)一般來說都是非線性函數(shù),常用的有Sigmoid??函數(shù)、Tanh函數(shù)、ReLU函數(shù)和PReLU函數(shù)等等[88_89]。??前向神經(jīng)網(wǎng)絡之所以稱為“前向”,是因為信息流僅沿著如式(2.49)所示的??一個方向傳遞,并沒有類似于RNN結構中循環(huán)往復的連接。此外當式(2.49)采??用的激活函數(shù)是二值閾值函數(shù)(如Sign(〇函數(shù))時,則式(2.49)實際上類似于感??知機_或者是ADALINE模型,但是整個模型相當于線性分類器,模型的性能??仍然很受限制[91]。如果使用多層FNN搭建網(wǎng)絡,則模型可以表示為:??興=產(chǎn)(.",/2(/】(V,叱),e2)…,t)?(2.50)??式中,I表示網(wǎng)絡的總層數(shù),網(wǎng)絡的參數(shù)則是通過求解目標函數(shù)計算得到的:??G*?=?argmax?Y?J(/L(v,0),z),?(v,z)?G?Dlrain?(2.51)??0?d,咖??式中,表示一個非負的代價函數(shù),如均方誤差。/hvj)表示含有L層的??FNN模型,0=0^02,…,0J為網(wǎng)絡的參數(shù)集合,(v,z)表示訓練樣本的配對數(shù)??據(jù),v表示輸入的信號特征,z是相應的目標信號特征,式(2.51)的目的就是優(yōu)??化網(wǎng)絡參數(shù)使得網(wǎng)絡的輸出2盡可能地接近目標特征z。??當FNN網(wǎng)絡的層數(shù)增加時,FNN網(wǎng)絡的性能就會進一步地提升,這也是近??些年來深度神經(jīng)網(wǎng)絡得到飛速發(fā)展的重要原因。然而網(wǎng)絡深度的增加進一步加??大了神經(jīng)網(wǎng)絡訓練的難度,為了更好地優(yōu)化網(wǎng)絡參數(shù),Rumelhartetal.Nl提出了??反向傳播算法,對L層的FN
本文編號:2962261
【文章來源】:中國科學技術大學安徽省 211工程院校 985工程院校
【文章頁數(shù)】:94 頁
【學位級別】:碩士
【部分圖文】:
圖1.1典型的智能會議系統(tǒng)中語音信號處理框架??
?第2章單通道語音增強技術基礎???■??■?U??1|?—-鬥?國??_?Hr^izli?…一;ifLndj?U??3?=?:—」:—」?y?__??:.......i?—?M?—?一—?M?M…:?■?I:??jb?m??B?_?一?HI?■?H?_??…..i_j—...'HHHj—[ABLjIJIj??Luj—」jigiiiilmid??x?D?c??圖2.3信號稀疏表示示意圖:每個小方框代表向量或矩陣的一個元素,方框的灰度值越低??(越黑)表示該元素的數(shù)值越大,灰度值越高(越白)表示數(shù)值越小??式中,g是稀疏表示系數(shù)C的稀疏度約束,f是設置的稀疏表示誤差閾值,/(c)是??對向量c的稀疏性度量函數(shù),常用的有仏和、范數(shù)。當采用/Q范數(shù)時,目標函??數(shù)則為非凸問題,相應的稀疏表示算法常用的有MP算法[38]和OMP算法[33_34];??當/〇范數(shù)松弛到/i范數(shù)的情況下,形如式(2.36)的問題被稱為LASSO問題[84],??形如式(2.37)的問題被稱為基追蹤去噪問題(Basis?Pursuit?Denoising)[8:l1,對于這??類問題常用的稀疏表示算法有BP算法【38]和LARS算法在此章節(jié)中,我??們將簡要介紹一下常用的幾種稀疏表示算法。??1.?OMP算法??對于/〇約束的非凸問題,也是NP-Hard問題,學者們常采用貪婪追蹤算法??來解決此類問題,其中最著名的當屬OMP算法[33-34】。OMP算法是基于MP算??法改進而來的,MP算法是通過不斷迭代選擇當前與信號或者殘值最匹配的原子??來計算稀疏表示系數(shù)的,但是該算法并不能保證
?第2章單通道語音增強技術基礎???參??圖2.4?FNN的網(wǎng)絡框架示意圖??活函數(shù)”。如不特別說明,激活函數(shù)一般來說都是非線性函數(shù),常用的有Sigmoid??函數(shù)、Tanh函數(shù)、ReLU函數(shù)和PReLU函數(shù)等等[88_89]。??前向神經(jīng)網(wǎng)絡之所以稱為“前向”,是因為信息流僅沿著如式(2.49)所示的??一個方向傳遞,并沒有類似于RNN結構中循環(huán)往復的連接。此外當式(2.49)采??用的激活函數(shù)是二值閾值函數(shù)(如Sign(〇函數(shù))時,則式(2.49)實際上類似于感??知機_或者是ADALINE模型,但是整個模型相當于線性分類器,模型的性能??仍然很受限制[91]。如果使用多層FNN搭建網(wǎng)絡,則模型可以表示為:??興=產(chǎn)(.",/2(/】(V,叱),e2)…,t)?(2.50)??式中,I表示網(wǎng)絡的總層數(shù),網(wǎng)絡的參數(shù)則是通過求解目標函數(shù)計算得到的:??G*?=?argmax?Y?J(/L(v,0),z),?(v,z)?G?Dlrain?(2.51)??0?d,咖??式中,表示一個非負的代價函數(shù),如均方誤差。/hvj)表示含有L層的??FNN模型,0=0^02,…,0J為網(wǎng)絡的參數(shù)集合,(v,z)表示訓練樣本的配對數(shù)??據(jù),v表示輸入的信號特征,z是相應的目標信號特征,式(2.51)的目的就是優(yōu)??化網(wǎng)絡參數(shù)使得網(wǎng)絡的輸出2盡可能地接近目標特征z。??當FNN網(wǎng)絡的層數(shù)增加時,FNN網(wǎng)絡的性能就會進一步地提升,這也是近??些年來深度神經(jīng)網(wǎng)絡得到飛速發(fā)展的重要原因。然而網(wǎng)絡深度的增加進一步加??大了神經(jīng)網(wǎng)絡訓練的難度,為了更好地優(yōu)化網(wǎng)絡參數(shù),Rumelhartetal.Nl提出了??反向傳播算法,對L層的FN
本文編號:2962261
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2962261.html
最近更新
教材專著