基于神經(jīng)機(jī)器翻譯的中文文本糾錯(cuò)研究
發(fā)布時(shí)間:2021-09-28 10:00
隨著中國(guó)經(jīng)濟(jì)的蓬勃發(fā)展,越來越多的外國(guó)人開始學(xué)習(xí)漢語,但是學(xué)習(xí)漢語對(duì)他們來說并不容易,因此檢測(cè)并糾正由CSL(Chinese as a Second Language)學(xué)習(xí)者撰寫的中文文章中的語法錯(cuò)誤顯得越來越重要,有效的中文語法錯(cuò)誤糾正(CGEC)系統(tǒng)可以為CSL學(xué)習(xí)者提供即時(shí)反饋,在學(xué)習(xí)過程中具有重要價(jià)值。主流的CGEC模型是基于神經(jīng)機(jī)器翻譯(NMT)的糾錯(cuò)模型,但是并沒有針對(duì)CGEC的特點(diǎn)進(jìn)行優(yōu)化。本文基于CGEC任務(wù)的特點(diǎn),使用了不同的嵌入層參數(shù)初始化方式,并改進(jìn)了NMT模型,在解碼器中使用多層target-attention計(jì)算方式。本文主要工作如下:1.提出不同的嵌入層參數(shù)初始化方式。在基于NMT的CGEC模型中,嵌入層參數(shù)通常使用預(yù)訓(xùn)練的詞向量初始化。但是CSL學(xué)習(xí)者和母語使用者的語言習(xí)慣并不相同,并且預(yù)訓(xùn)練詞向量通常是在大規(guī)模的中文語料上訓(xùn)練得到的。因此本文提出不同的嵌入層參數(shù)初始化方式,編碼端使用隨機(jī)初始化,解碼端使用預(yù)訓(xùn)練詞向量初始化。實(shí)驗(yàn)結(jié)果表明,該初始化方式使模型的糾錯(cuò)性能提升了1.48 F0.5。2.在NMT模型的基礎(chǔ)上,提出多層targ...
【文章來源】:武漢大學(xué)湖北省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:69 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
文本卷積操作結(jié)構(gòu)示意圖
seq2seq模型結(jié)構(gòu)示意圖
AttentionMechanism模塊示意圖
【參考文獻(xiàn)】:
期刊論文
[1]基于規(guī)則與統(tǒng)計(jì)相結(jié)合的中文文本自動(dòng)查錯(cuò)模型與算法[J]. 張仰森,曹元大,俞士汶. 中文信息學(xué)報(bào). 2006(04)
[2]現(xiàn)代漢語熵的計(jì)算及語言模型中稀疏事件的概率估計(jì)[J]. 黃萱菁,吳立德,郭以昆,劉秉偉. 電子學(xué)報(bào). 2000(08)
本文編號(hào):3411695
【文章來源】:武漢大學(xué)湖北省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:69 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
文本卷積操作結(jié)構(gòu)示意圖
seq2seq模型結(jié)構(gòu)示意圖
AttentionMechanism模塊示意圖
【參考文獻(xiàn)】:
期刊論文
[1]基于規(guī)則與統(tǒng)計(jì)相結(jié)合的中文文本自動(dòng)查錯(cuò)模型與算法[J]. 張仰森,曹元大,俞士汶. 中文信息學(xué)報(bào). 2006(04)
[2]現(xiàn)代漢語熵的計(jì)算及語言模型中稀疏事件的概率估計(jì)[J]. 黃萱菁,吳立德,郭以昆,劉秉偉. 電子學(xué)報(bào). 2000(08)
本文編號(hào):3411695
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3411695.html
最近更新
教材專著