天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 信息工程論文 >

基于遷移學(xué)習(xí)優(yōu)化的DCNN語(yǔ)音識(shí)別技術(shù)

發(fā)布時(shí)間:2021-10-07 06:41
  針對(duì)現(xiàn)有語(yǔ)音識(shí)別技術(shù)識(shí)別精準(zhǔn)度低的問(wèn)題,提出一種基于深度卷積神經(jīng)網(wǎng)絡(luò)算法與遷移學(xué)習(xí)相結(jié)合的語(yǔ)音識(shí)別技術(shù)。由于深度卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用范圍有限,當(dāng)輸入輸出參數(shù)發(fā)生變化時(shí),需要重新開始構(gòu)建,體系結(jié)構(gòu)訓(xùn)練時(shí)間過(guò)長(zhǎng),因此,采用遷移學(xué)習(xí)方法有利于降低數(shù)據(jù)集規(guī)模。仿真實(shí)驗(yàn)結(jié)果表明,遷移學(xué)習(xí)不僅適用于源數(shù)據(jù)集與遷移問(wèn)題的目標(biāo)數(shù)據(jù)集比較,而且也適用于兩種不同數(shù)據(jù)集情況,小數(shù)據(jù)集應(yīng)用不僅有利于降低數(shù)據(jù)集生成時(shí)間和費(fèi)用,而且有利于降低模型培訓(xùn)時(shí)間和對(duì)計(jì)算能力的要求。 

【文章來(lái)源】:現(xiàn)代電子技術(shù). 2020,43(17)北大核心

【文章頁(yè)數(shù)】:4 頁(yè)

【部分圖文】:

基于遷移學(xué)習(xí)優(yōu)化的DCNN語(yǔ)音識(shí)別技術(shù)


VGG-16的原理圖

模型圖,模型,學(xué)時(shí),聲音


利用數(shù)據(jù)增強(qiáng)得到的圖譜,通過(guò)人工放大數(shù)據(jù)來(lái)提高性能,對(duì)VGG-16模型的頂層進(jìn)行訓(xùn)練。作為一個(gè)優(yōu)化器,選擇學(xué)習(xí)率為0.000 5的隨機(jī)梯度下降優(yōu)化器。該模型訓(xùn)練的批量大小為8的25,50,100和200個(gè)學(xué)時(shí)的音頻數(shù)據(jù),只有男性的聲音、女性的聲音和混合的男性和女性的聲音,預(yù)先訓(xùn)練的學(xué)時(shí)數(shù)要接近或在訓(xùn)練飽和的范圍內(nèi)?偟臏(zhǔn)確度百分比的培訓(xùn)結(jié)果如表1所示。由表1可以看出:對(duì)于一個(gè)包含5 200個(gè)男性或女性聲音文件的數(shù)據(jù)集,可以收到每個(gè)性別的語(yǔ)音測(cè)試結(jié)果。對(duì)于一個(gè)包含5 200個(gè)文件的數(shù)據(jù)集中男女聲音的組合,培訓(xùn)無(wú)法取得可比的結(jié)果。但是一個(gè)包含2倍多文件(10 400個(gè))的數(shù)據(jù)集不能只是達(dá)到單獨(dú)培訓(xùn)的結(jié)果,它甚至優(yōu)于單獨(dú)培訓(xùn)的結(jié)果。也可以看出,對(duì)于所有的測(cè)試案例,超過(guò)25個(gè)學(xué)時(shí)的培訓(xùn)都不能完成的結(jié)果,可以通過(guò)50個(gè)或更高學(xué)時(shí)的培訓(xùn)獲得。

聲音,學(xué)時(shí),學(xué)習(xí)率,文件


不同數(shù)量?jī)鼋Y(jié)層對(duì)10 400個(gè)男性和女性聲音文件集的訓(xùn)練精度

【參考文獻(xiàn)】:
期刊論文
[1]基于遷移學(xué)習(xí)的類別級(jí)物體識(shí)別與檢測(cè)研究與進(jìn)展[J]. 張雪松,莊嚴(yán),閆飛,王偉.  自動(dòng)化學(xué)報(bào). 2019(07)
[2]基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)算法的語(yǔ)音識(shí)別[J]. 楊洋,汪毓鐸.  應(yīng)用聲學(xué). 2018(06)
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的路面裂縫檢測(cè)[J]. 趙珊珊,何寧.  傳感器與微系統(tǒng). 2017(11)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的面罩語(yǔ)音識(shí)別[J]. 王霞,杜桂明,王光艷,張艷.  傳感器與微系統(tǒng). 2017(10)
[5]采用長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的低資源語(yǔ)音識(shí)別方法[J]. 舒帆,屈丹,張文林,周利莉,郭武.  西安交通大學(xué)學(xué)報(bào). 2017(10)
[6]基于深度學(xué)習(xí)的語(yǔ)音識(shí)別技術(shù)現(xiàn)狀與展望[J]. 戴禮榮,張仕良,黃智穎.  數(shù)據(jù)采集與處理. 2017(02)
[7]深度卷積神經(jīng)網(wǎng)絡(luò)的汽車車型識(shí)別方法[J]. 張軍,張婷,楊正瓴,朱新山,楊伯軒.  傳感器與微系統(tǒng). 2016(11)
[8]深度學(xué)習(xí):多層神經(jīng)網(wǎng)絡(luò)的復(fù)興與變革[J]. 山世光,闞美娜,劉昕,劉夢(mèng)怡,鄔書哲.  科技導(dǎo)報(bào). 2016(14)
[9]基于深度學(xué)習(xí)混合模型遷移學(xué)習(xí)的圖像分類[J]. 石祥濱,房雪鍵,張德園,郭忠強(qiáng).  系統(tǒng)仿真學(xué)報(bào). 2016(01)
[10]深度學(xué)習(xí)的昨天、今天和明天[J]. 余凱,賈磊,陳雨強(qiáng),徐偉.  計(jì)算機(jī)研究與發(fā)展. 2013(09)



本文編號(hào):3421547

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3421547.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶93018***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com