基于seq2seq的神經(jīng)問題生成方法優(yōu)化
發(fā)布時間:2021-03-25 05:57
隨著自然語言處理成為了重點的研究課題之一,自然語言處理研究領(lǐng)域下的神經(jīng)問題生成也得到了飛速發(fā)展和應(yīng)用。神經(jīng)問題生成是使用深度神經(jīng)網(wǎng)絡(luò)從給定的文章或段落中提取目標(biāo)答案,并根據(jù)現(xiàn)有的目標(biāo)答案生成問題。目前,神經(jīng)問題生在學(xué)習(xí)環(huán)境、數(shù)據(jù)挖掘、信息提取和無數(shù)其他應(yīng)用領(lǐng)域中發(fā)揮著重要作用。先前的神經(jīng)問題生成模型中存在一個問題,即所生成的問題未與目標(biāo)答案中的上下文明確關(guān)聯(lián),導(dǎo)致生成的問題中很大一部分包含目標(biāo)答案,從而導(dǎo)致意外問題的產(chǎn)生,并且生成的問題準(zhǔn)確度不高。同時,在沒有指導(dǎo)的情況下,很多神經(jīng)問題生成模型沒有控制所生成問題的特殊性水平,導(dǎo)致無法獲得信息的通用性問題和一般問題。本文使用基于seq2seq的神經(jīng)問題生成模型,該模型由編碼器和解碼器組成,本文將段落和目標(biāo)答案分離開來進(jìn)行編碼解碼處理,通過特殊標(biāo)簽替換原始段落的目標(biāo)答案,并使用該段落和目標(biāo)答案作為輸入,以減少不正確問題(包括正確答案)的數(shù)量。通過基于字符重疊的復(fù)制機(jī)制,本論文可以使生成問題在單詞級別和輸入文檔中具有更高的重疊度和相關(guān)性。同時,本論文將神經(jīng)分類問題生成模型,訓(xùn)練一個分類器,該分類器使用對給定上下文的特定級別(通用或特定)來注釋...
【文章來源】:武漢科技大學(xué)湖北省
【文章頁數(shù)】:46 頁
【學(xué)位級別】:碩士
【部分圖文】:
編碼器
武漢科技大學(xué)碩士學(xué)位論文15圖3-1問題生成實例3.4.2目標(biāo)答案編碼器本論文使用另一個單層LSTM來編碼目標(biāo)答案Xa。在目標(biāo)答案編碼器的個步驟中,每個LSTM的隱藏狀態(tài)被連接起來,形成最終的隱藏狀態(tài)hfinala,這代表了答案Xa的總體特征:),(h1ajajajhxLSTM(3-13)),(1ajajajhhxLSTM(3-14)];[0amamafinalhhhs(3-15)3.5解碼器為了從段落和目標(biāo)答案中獲取足夠的信息,本論文設(shè)計了段落和目標(biāo)答案的解碼器。段落和目標(biāo)答案解碼器基于LSTM,通過以下三種方式利用段落和目標(biāo)答案的特征。本論文用最終答案向量hfinala初始化解碼器狀態(tài)。3.5.1結(jié)合答案關(guān)鍵特征的解碼器在本系統(tǒng)中,通過結(jié)合答案的關(guān)鍵特征解碼器,能夠有效的提高問題生成的效率。在每個解碼步驟中,解碼器都利用注意力機(jī)制中段落的上下文特征和關(guān)鍵字網(wǎng)絡(luò)中目標(biāo)答案的關(guān)鍵字特征來生成與段落中目標(biāo)答案相關(guān)的問題。與以往的解碼方法相比,結(jié)合答案的關(guān)鍵特征更加有利于提出相關(guān)度更高的問題。本論文提取目標(biāo)答案中的關(guān)鍵信息以消除問題目標(biāo)的歧義。例如,給定一段“史蒂夫·喬布斯是蘋果的創(chuàng)始人”,目標(biāo)答案是“蘋果的創(chuàng)始人”,本論文想
武漢科技大學(xué)碩士學(xué)位論文18圖3-2答案分離的編碼器圖3-3段落和目標(biāo)答案分離的解碼器查詢tq被計算為解碼器隱藏狀態(tài)ts和上下文向量tc的組合。通過查詢tq到每個詞嵌入ke,本論文可以計算tq和ke之間的相關(guān)性得分,其中aW是可訓(xùn)練的參數(shù)矩陣。然后,得分函數(shù)的歸一化值表示每個單詞的生成概率。由于原始輸出層使用了最多的模型參數(shù),因此,通過使用此單詞檢索層,本論文可以大大減少參數(shù)大小和模型收斂的時間:
本文編號:3099160
【文章來源】:武漢科技大學(xué)湖北省
【文章頁數(shù)】:46 頁
【學(xué)位級別】:碩士
【部分圖文】:
編碼器
武漢科技大學(xué)碩士學(xué)位論文15圖3-1問題生成實例3.4.2目標(biāo)答案編碼器本論文使用另一個單層LSTM來編碼目標(biāo)答案Xa。在目標(biāo)答案編碼器的個步驟中,每個LSTM的隱藏狀態(tài)被連接起來,形成最終的隱藏狀態(tài)hfinala,這代表了答案Xa的總體特征:),(h1ajajajhxLSTM(3-13)),(1ajajajhhxLSTM(3-14)];[0amamafinalhhhs(3-15)3.5解碼器為了從段落和目標(biāo)答案中獲取足夠的信息,本論文設(shè)計了段落和目標(biāo)答案的解碼器。段落和目標(biāo)答案解碼器基于LSTM,通過以下三種方式利用段落和目標(biāo)答案的特征。本論文用最終答案向量hfinala初始化解碼器狀態(tài)。3.5.1結(jié)合答案關(guān)鍵特征的解碼器在本系統(tǒng)中,通過結(jié)合答案的關(guān)鍵特征解碼器,能夠有效的提高問題生成的效率。在每個解碼步驟中,解碼器都利用注意力機(jī)制中段落的上下文特征和關(guān)鍵字網(wǎng)絡(luò)中目標(biāo)答案的關(guān)鍵字特征來生成與段落中目標(biāo)答案相關(guān)的問題。與以往的解碼方法相比,結(jié)合答案的關(guān)鍵特征更加有利于提出相關(guān)度更高的問題。本論文提取目標(biāo)答案中的關(guān)鍵信息以消除問題目標(biāo)的歧義。例如,給定一段“史蒂夫·喬布斯是蘋果的創(chuàng)始人”,目標(biāo)答案是“蘋果的創(chuàng)始人”,本論文想
武漢科技大學(xué)碩士學(xué)位論文18圖3-2答案分離的編碼器圖3-3段落和目標(biāo)答案分離的解碼器查詢tq被計算為解碼器隱藏狀態(tài)ts和上下文向量tc的組合。通過查詢tq到每個詞嵌入ke,本論文可以計算tq和ke之間的相關(guān)性得分,其中aW是可訓(xùn)練的參數(shù)矩陣。然后,得分函數(shù)的歸一化值表示每個單詞的生成概率。由于原始輸出層使用了最多的模型參數(shù),因此,通過使用此單詞檢索層,本論文可以大大減少參數(shù)大小和模型收斂的時間:
本文編號:3099160
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3099160.html
最近更新
教材專著