一種多尺度前向注意力模型的語音識別方法
發(fā)布時間:2021-01-04 06:26
注意力模型是當前語音識別中的主流模型,然而其存在一個缺點,即當前時刻的注意力模型可能產(chǎn)生異常得分.為此,本文首先提出前向注意力模型,其采用上一時刻正常注意力得分平滑當前時刻異常得分.接著通過對上一時刻的注意力得分添加約束因子來對前向注意力模型進行優(yōu)化,達到自適應平滑的目的.最后,在優(yōu)化模型基礎上提出多尺度前向注意力模型,其通過引入多尺度模型來對不同等級的語音基元進行建模,進而將所得到的不同等級目標向量進行融合,以達到解決注意力得分異常值的目的.采用SwitchBoard作為訓練集,Hub5’00作為測試集進行實驗,相比于基線系統(tǒng),多尺度前向注意力模型的詞錯誤率(Word Error Rate,WER)相對降低14.28%.
【文章來源】:電子學報. 2020年07期 北大核心
【文章頁數(shù)】:6 頁
【文章目錄】:
1 引言
2 傳統(tǒng)注意力模型的語音識別
3 基于前向注意力模型的語音識別模型
4 基于多尺度前向注意力模型的語音識別模型
5 實驗結果及分析
5.1 實驗數(shù)據(jù)庫
5.2 實驗參數(shù)設置
5.3 實驗結果及分析
6 結論
【參考文獻】:
期刊論文
[1]Using Highway Connections to Enable Deep Small-footprint LSTM-RNNs for Speech Recognition[J]. CHENG Gaofeng,LI Xin,YAN Yonghong. Chinese Journal of Electronics. 2019(01)
[2]Speech Magnitude Spectrum Reconstruction from MFCCs Using Deep Neural Network[J]. JIANG Wenbin,LIU Peilin,WEN Fei. Chinese Journal of Electronics. 2018(02)
[3]Agglutinative Language Speech Recognition Using Automatic Allophone Deriving[J]. XU Ji,PAN Jielin,YAN Yonghong. Chinese Journal of Electronics. 2016(02)
本文編號:2956319
【文章來源】:電子學報. 2020年07期 北大核心
【文章頁數(shù)】:6 頁
【文章目錄】:
1 引言
2 傳統(tǒng)注意力模型的語音識別
3 基于前向注意力模型的語音識別模型
4 基于多尺度前向注意力模型的語音識別模型
5 實驗結果及分析
5.1 實驗數(shù)據(jù)庫
5.2 實驗參數(shù)設置
5.3 實驗結果及分析
6 結論
【參考文獻】:
期刊論文
[1]Using Highway Connections to Enable Deep Small-footprint LSTM-RNNs for Speech Recognition[J]. CHENG Gaofeng,LI Xin,YAN Yonghong. Chinese Journal of Electronics. 2019(01)
[2]Speech Magnitude Spectrum Reconstruction from MFCCs Using Deep Neural Network[J]. JIANG Wenbin,LIU Peilin,WEN Fei. Chinese Journal of Electronics. 2018(02)
[3]Agglutinative Language Speech Recognition Using Automatic Allophone Deriving[J]. XU Ji,PAN Jielin,YAN Yonghong. Chinese Journal of Electronics. 2016(02)
本文編號:2956319
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/2956319.html
最近更新
教材專著