蒙漢神經(jīng)機器翻譯中的未登錄詞處理研究
【文章頁數(shù)】:53 頁
【學位級別】:碩士
【部分圖文】:
圖2-1seq2seq模型
射為另外一個輸出序列。如下圖所示:圖2-1seq2seq模型在圖2-1中左邊部分是一個神經(jīng)網(wǎng)絡,該神經(jīng)網(wǎng)絡會接收輸入序列“ABCEOS”,其中EOS表示句末標記。在這個過程中每一個時間點接收一個詞或者字,并在讀取到EOS時終止接受輸入,最后將輸入序列壓縮成指....
圖2-3LSTM的隱層單元結構圖
網(wǎng)絡一般都是全連接結構,并且每層之間的節(jié)點本可以通過使用神經(jīng)網(wǎng)絡來解決,但是普通的神列標注這樣的非定長輸入。例如,要預測一個句前詞前面的單詞,因為在一個句子中的前后單是有人提出了循環(huán)神經(jīng)網(wǎng)絡(RecurrentNeur的信息并應用于當前輸出的計算當中,即隱藏層層的輸入不僅包括當....
圖2-4注意力機制示意圖
入句子長度的增加,基本的編碼器-解碼器題在基本的編碼器-解碼器結構中引入了注目標語言端的詞,往往只與源語言端部分詞,它在源語言句子中搜索與之相關的部分。的上下文向量和前面已生成的單詞,預測的編碼器-解碼器架構首先使用雙向RNN作N組成。而解碼器主要根據(jù)輸入序列進行翻,然后計....
圖2-5RNN網(wǎng)絡結構
第二章神經(jīng)機器翻譯相關理論萬能的,也有一些不足,它的不足之處集中在以下兩點:首先,由于RNN序列特性,導致其并行化的能力很低。從圖2-5可以看出,如果把RNN展開來看的,是一種序列型的網(wǎng)絡,如果想得到的結果,必須得先計算出的結,這樣的串行關系使它的并行度非常低。....
本文編號:3950898
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/3950898.html