融合預(yù)訓(xùn)練語言模型的機(jī)器譯文質(zhì)量評估
發(fā)布時間:2021-11-10 00:31
近年來,神經(jīng)機(jī)器翻譯技術(shù)取得了重大突破并得到了迅速的應(yīng)用和推廣。但是,依然存在諸如機(jī)器譯文質(zhì)量評估問題、集外詞問題、長句翻譯問題、過翻和漏翻問題等。機(jī)器譯文質(zhì)量評估(Quality Estimation,QE)是研究如何解決在沒有參考譯文的情況下對機(jī)器譯文的質(zhì)量進(jìn)行評估的問題,其研究成果不僅可以幫助機(jī)器翻譯系統(tǒng)過濾掉低質(zhì)量的翻譯結(jié)果,以及構(gòu)建高質(zhì)量的平行語料庫,還可減少譯后編輯的工作量。因此,該研究具有重要的研究意義和實(shí)用價值,F(xiàn)有的QE方法主要包括兩類,一種是基于機(jī)器學(xué)習(xí)的方法,另一種是基于深度學(xué)習(xí)的方法。這兩種方法都致力于提取與QE任務(wù)緊密相關(guān)的特征,抽取的特征的好壞決定了系統(tǒng)性能的優(yōu)劣。近期,預(yù)訓(xùn)練語言模型刷新了多個自然語言處理任務(wù)的最佳成績,展現(xiàn)出強(qiáng)大的表征學(xué)習(xí)能力。因此,本文主要探索如何將預(yù)訓(xùn)練語言模型融入到QE任務(wù)中,以提升QE的性能。本文的主要工作和創(chuàng)新點(diǎn)包括:(1)提出了一種將ELMO、GPT和BERT等預(yù)訓(xùn)練語言模型提取出的機(jī)器譯文特征和“雙語專家”模型提取出的特征相融合的機(jī)器譯文質(zhì)量評估方法。兩者提取到的特征相互補(bǔ)充可有效緩解QE任務(wù)特征稀疏問題。實(shí)驗(yàn)結(jié)果證明,在句...
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:66 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1?QuEst特征族??r-r.??
“OK”?/”?BAD”??圖2-2?QUETCH模型組合架構(gòu)??Figure?2-2?QUETCH?model?combination?architecture??Kreutzer等人問于2015年使用模型組合的方式以解決詞級別QE任務(wù),模型可??以分為兩個部分。一部分是神經(jīng)網(wǎng)絡(luò)模塊,其輸入為源端和目標(biāo)端的詞向量,詞??向量并不是單個詞所對應(yīng)的詞向量,而是以目標(biāo)詞為中心,固定窗口大小內(nèi)的詞??向量的拼接,經(jīng)過前饋神經(jīng)網(wǎng)絡(luò)運(yùn)算后,將隱層表示進(jìn)行線性變換最后使用??10??
正則化系數(shù)為CeUO^UPHamming損失項(xiàng),該損失項(xiàng)給錯誤的正例賦予??了比錯誤的負(fù)例更大的懲罰心e?{0.5,0.55,...?,0.95},c,,v?=l-c>P,來解決錯誤標(biāo)簽??比正確標(biāo)簽更少的問題。而純粹的神經(jīng)網(wǎng)絡(luò)模型(NEURALQE)如圖2-4所示。??該系統(tǒng)接收源端和目標(biāo)端的句子s和t作為其輸出,以及它們詞級別的對齊乂??和由TurboTagger所得到的詞性標(biāo)注。除了額外增加的詞性標(biāo)注特征,輸入層的架??構(gòu)與QUETCH相似。對于目標(biāo)端的每個單詞的表示,是將該詞與其對齊的詞的嵌??入表示相拼接得到的。兩端的詞左右兩側(cè)的文本也被拼接到了一起。接下來,該??系統(tǒng)堆疊了如下的幾層神經(jīng)網(wǎng)絡(luò):??(1)
【參考文獻(xiàn)】:
碩士論文
[1]基于神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯的機(jī)器譯文質(zhì)量估計研究[D]. 孫瀟.哈爾濱工業(yè)大學(xué) 2018
[2]融合語義概念的神經(jīng)機(jī)器翻譯集外詞處理方法研究[D]. 李少童.北京交通大學(xué) 2018
[3]層次短語模型的日語時態(tài)翻譯研究[D]. 明芳.北京交通大學(xué) 2017
[4]英漢機(jī)器翻譯系統(tǒng)自動評測方法的研究與實(shí)現(xiàn)[D]. 張麗云.北京工業(yè)大學(xué) 2006
本文編號:3486211
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:66 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1?QuEst特征族??r-r.??
“OK”?/”?BAD”??圖2-2?QUETCH模型組合架構(gòu)??Figure?2-2?QUETCH?model?combination?architecture??Kreutzer等人問于2015年使用模型組合的方式以解決詞級別QE任務(wù),模型可??以分為兩個部分。一部分是神經(jīng)網(wǎng)絡(luò)模塊,其輸入為源端和目標(biāo)端的詞向量,詞??向量并不是單個詞所對應(yīng)的詞向量,而是以目標(biāo)詞為中心,固定窗口大小內(nèi)的詞??向量的拼接,經(jīng)過前饋神經(jīng)網(wǎng)絡(luò)運(yùn)算后,將隱層表示進(jìn)行線性變換最后使用??10??
正則化系數(shù)為CeUO^UPHamming損失項(xiàng),該損失項(xiàng)給錯誤的正例賦予??了比錯誤的負(fù)例更大的懲罰心e?{0.5,0.55,...?,0.95},c,,v?=l-c>P,來解決錯誤標(biāo)簽??比正確標(biāo)簽更少的問題。而純粹的神經(jīng)網(wǎng)絡(luò)模型(NEURALQE)如圖2-4所示。??該系統(tǒng)接收源端和目標(biāo)端的句子s和t作為其輸出,以及它們詞級別的對齊乂??和由TurboTagger所得到的詞性標(biāo)注。除了額外增加的詞性標(biāo)注特征,輸入層的架??構(gòu)與QUETCH相似。對于目標(biāo)端的每個單詞的表示,是將該詞與其對齊的詞的嵌??入表示相拼接得到的。兩端的詞左右兩側(cè)的文本也被拼接到了一起。接下來,該??系統(tǒng)堆疊了如下的幾層神經(jīng)網(wǎng)絡(luò):??(1)
【參考文獻(xiàn)】:
碩士論文
[1]基于神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯的機(jī)器譯文質(zhì)量估計研究[D]. 孫瀟.哈爾濱工業(yè)大學(xué) 2018
[2]融合語義概念的神經(jīng)機(jī)器翻譯集外詞處理方法研究[D]. 李少童.北京交通大學(xué) 2018
[3]層次短語模型的日語時態(tài)翻譯研究[D]. 明芳.北京交通大學(xué) 2017
[4]英漢機(jī)器翻譯系統(tǒng)自動評測方法的研究與實(shí)現(xiàn)[D]. 張麗云.北京工業(yè)大學(xué) 2006
本文編號:3486211
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/3486211.html
最近更新
教材專著