基于深度學(xué)習(xí)的任務(wù)型對話系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
【文章頁數(shù)】:76 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-2循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)??圖2-2所示的是一個(gè)單層單向的Vanilla?RNN,左側(cè)是RNN的實(shí)際網(wǎng)絡(luò)流,??
并根據(jù)后續(xù)的輸入不斷更新隱狀態(tài)。Vanilla?RNN基本結(jié)構(gòu)是將網(wǎng)絡(luò)的輸出作為??隱狀態(tài),這個(gè)隱狀態(tài)和下一時(shí)間步(timestep)的輸入一起輸入到神經(jīng)網(wǎng)絡(luò)中,??構(gòu)成循環(huán)結(jié)構(gòu)。網(wǎng)絡(luò)的具體結(jié)構(gòu)如圖2-2所示:??h,?^2?K??^?\?\?]??丫?T?T?"??圖2-2循環(huán)....
圖2-3LSTM網(wǎng)絡(luò)結(jié)構(gòu)【45]??
從序列中提取更有效的輸入。遺忘門控制記憶對于輸出的影響,從而控制歷史輸??入對于輸出的影響。輸出門則控制更新后的記憶對于輸出的影響。具體的網(wǎng)絡(luò)結(jié)??構(gòu)如圖2-3所示:?????????r?(?h?r?i??a?uMMA?.??v?????-J?v?????r?r?T??@?@?(....
圖2-4GRU網(wǎng)絡(luò)結(jié)構(gòu)【46!??GRU的解析式如下:??z,?=?cr(ffr.x,+"z"7,?一丨)
?=z,*V,+(l-z,)*/i;?(2-19)??通過對比圖2-3和圖2-4可知,GRU和LSTM的網(wǎng)絡(luò)結(jié)構(gòu)相似,但是也存??在明顯的差異。LSTM和GRU的主要區(qū)別在于:??(1)?GRU通過重置門(Reset?Gate)控制之前的隱狀態(tài)的輸入量;??(2)
圖2-5卷枳神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)??2.5
?卜??xt??圖2-4GRU網(wǎng)絡(luò)結(jié)構(gòu)【46!??GRU的解析式如下:??z,?=?cr(ffr.x,+"z"7,?一丨)?(2-16)??rt?=〇-(Wr*xl?+t/r??/?,_,)?(2-17)??ht?=?tanh(^?x,?+?rt?)?(2-18)??h,?=z,....
本文編號:3942240
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3942240.html