基于深度學(xué)習(xí)的序列識別模型壓縮與加速研究
發(fā)布時間:2021-09-16 18:42
近年來,基于深度學(xué)習(xí)的序列識別模型顯著提升了光學(xué)字符識別(Optical Character Recognition,OCR)、自動語音識別(Automatic Speech Recognition,ASR)等任務(wù)的性能。然而,在取得優(yōu)異識別性能的同時,這些模型的層數(shù)越來越多,結(jié)構(gòu)越來越復(fù)雜,因此模型的參數(shù)量和計算量也越來越龐大。為了能夠?qū)⒛P筒渴鸬接嬎隳芰τ邢薜臋C器上(如云端CPU服務(wù)器)以在產(chǎn)品中得到應(yīng)用,需要對模型進行最大限度的壓縮與加速。本文圍繞兩種在OCR、ASR任務(wù)上廣泛使用的基于深度學(xué)習(xí)的序列識別模型,即結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、深度雙向長短時記憶元網(wǎng)絡(luò)(Deep Bidirectional Long Short-Term Memory,DBLSTM)的CNN-DBLSTM字符模型,和以連接時序分類(Connectionist Temporal Classification,CTC)為訓(xùn)練準(zhǔn)則的 LSTM 聲學(xué)模型,展開模型壓縮方法的研究,實現(xiàn)運行時加速的目的。首先,針對CNN-DBLSTM字符模型,本文提出使...
【文章來源】:中國科學(xué)技術(shù)大學(xué)安徽省 211工程院校 985工程院校
【文章頁數(shù)】:146 頁
【學(xué)位級別】:博士
【部分圖文】:
圖2.2卷積操作示意圖??
圖2.3池化操作示意圖??
圖2.4?(a)含有一個隱層的單向RNN前向傳播示意圖(b)含有一個隱層的雙向RNN前??
本文編號:3397095
【文章來源】:中國科學(xué)技術(shù)大學(xué)安徽省 211工程院校 985工程院校
【文章頁數(shù)】:146 頁
【學(xué)位級別】:博士
【部分圖文】:
圖2.2卷積操作示意圖??
圖2.3池化操作示意圖??
圖2.4?(a)含有一個隱層的單向RNN前向傳播示意圖(b)含有一個隱層的雙向RNN前??
本文編號:3397095
本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/3397095.html
最近更新
教材專著