基于強(qiáng)化學(xué)習(xí)的實(shí)體關(guān)系聯(lián)合抽取模型研究
發(fā)布時(shí)間:2024-02-28 21:59
實(shí)體識(shí)別與關(guān)系抽取是信息抽取中的一項(xiàng)重要任務(wù)。目前主流的做法是將實(shí)體關(guān)系進(jìn)行聯(lián)合抽取,現(xiàn)有的基于遠(yuǎn)程監(jiān)督的實(shí)體和關(guān)系抽取方法存在著標(biāo)簽噪聲問題。本文提出了一種基于強(qiáng)化學(xué)習(xí)的實(shí)體關(guān)系聯(lián)合抽取方法。該模型有兩個(gè)模塊:句子選擇器模塊和實(shí)體關(guān)系聯(lián)合抽取模塊。句子選擇器模塊選擇沒有標(biāo)簽噪聲的高質(zhì)量句子,將所選句子輸入到實(shí)體關(guān)系聯(lián)合抽取模型。實(shí)體關(guān)系聯(lián)合抽取模塊采用序列標(biāo)注方法,對輸入的句子進(jìn)行預(yù)測,并向句子選擇器模塊提供反饋,指導(dǎo)句子選擇器模塊挑選高質(zhì)量的句子。這兩個(gè)模塊共同訓(xùn)練來優(yōu)化句子選擇和序列標(biāo)注過程。實(shí)驗(yàn)結(jié)果表明,該模型能有效地處理數(shù)據(jù)的噪聲,在實(shí)體和關(guān)系聯(lián)合抽取上有較好的效果。本文的主要研究內(nèi)容包括以下幾個(gè)方面:(1)針對遠(yuǎn)程監(jiān)督的公開數(shù)據(jù)集,使用一種可以同時(shí)將實(shí)體與關(guān)系的信息抽取出來的標(biāo)簽,將數(shù)據(jù)集進(jìn)行預(yù)處理,在處理之后的數(shù)據(jù)集上可以將實(shí)體關(guān)系聯(lián)合抽取轉(zhuǎn)換成序列標(biāo)注問題,也就是通過含有足夠信息的標(biāo)簽可以在一個(gè)模型中同時(shí)抽取出實(shí)體與關(guān)系。(2)將實(shí)體關(guān)系聯(lián)合抽取轉(zhuǎn)化為一個(gè)統(tǒng)一的序列標(biāo)注問題后,研究了多種序列標(biāo)注模型,包括經(jīng)典的BI-LSTM-CRF模型,將CRF解碼器換成LSTM解碼器...
【文章頁數(shù)】:64 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
ABSTRACT
1 緒論
1.1 研究背景與研究意義
1.2 國內(nèi)外相關(guān)領(lǐng)域研究現(xiàn)狀
1.2.1 命名實(shí)體識(shí)別的相關(guān)工作
1.2.2 關(guān)系分類的相關(guān)工作
1.2.3 實(shí)體關(guān)系聯(lián)合抽取的相關(guān)工作
1.3 本文研究目標(biāo)與研究內(nèi)容
1.4 本文的組織結(jié)構(gòu)
2 語料庫的構(gòu)建
2.1 遠(yuǎn)程監(jiān)督
2.2 標(biāo)簽策略
2.3 詞向量
2.4 本章小結(jié)
3 序列標(biāo)注模型
3.1 條件隨機(jī)場(CRF)模型
3.2 神經(jīng)網(wǎng)絡(luò)模型
3.2.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)模型
3.2.2 長短期記憶網(wǎng)絡(luò)(LSTM)模型
3.2.3 雙向長短期記憶網(wǎng)絡(luò)(BI-LSTM)模型
3.3 神經(jīng)網(wǎng)絡(luò)與條件隨機(jī)場的聯(lián)合模型
3.4 基于損失函數(shù)優(yōu)化的LSTM解碼器
3.5 基于注意力機(jī)制的LSTM解碼器
3.6 本章小結(jié)
4 基于強(qiáng)化學(xué)習(xí)的實(shí)體關(guān)系聯(lián)合抽取模型
4.1 任務(wù)描述
4.2 模型構(gòu)建
4.2.1 強(qiáng)化學(xué)習(xí)模型
4.2.2 詞向量模型
4.2.3 雙向長短期記憶模型
4.2.4 條件隨機(jī)場模型
4.3 訓(xùn)練過程
4.4 本章小結(jié)
5 實(shí)驗(yàn)與結(jié)果分析
5.1 實(shí)驗(yàn)環(huán)境
5.2 數(shù)據(jù)集
5.3 評價(jià)指標(biāo)
5.4 實(shí)驗(yàn)設(shè)置
5.5 實(shí)驗(yàn)結(jié)果
5.6 實(shí)例分析
5.7 錯(cuò)誤分析
5.8 本章小結(jié)
6 總結(jié)與展望
6.1 總結(jié)
6.2 展望
參考文獻(xiàn)
致謝
本文編號:3914040
【文章頁數(shù)】:64 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
ABSTRACT
1 緒論
1.1 研究背景與研究意義
1.2 國內(nèi)外相關(guān)領(lǐng)域研究現(xiàn)狀
1.2.1 命名實(shí)體識(shí)別的相關(guān)工作
1.2.2 關(guān)系分類的相關(guān)工作
1.2.3 實(shí)體關(guān)系聯(lián)合抽取的相關(guān)工作
1.3 本文研究目標(biāo)與研究內(nèi)容
1.4 本文的組織結(jié)構(gòu)
2 語料庫的構(gòu)建
2.1 遠(yuǎn)程監(jiān)督
2.2 標(biāo)簽策略
2.3 詞向量
2.4 本章小結(jié)
3 序列標(biāo)注模型
3.1 條件隨機(jī)場(CRF)模型
3.2 神經(jīng)網(wǎng)絡(luò)模型
3.2.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)模型
3.2.2 長短期記憶網(wǎng)絡(luò)(LSTM)模型
3.2.3 雙向長短期記憶網(wǎng)絡(luò)(BI-LSTM)模型
3.3 神經(jīng)網(wǎng)絡(luò)與條件隨機(jī)場的聯(lián)合模型
3.4 基于損失函數(shù)優(yōu)化的LSTM解碼器
3.5 基于注意力機(jī)制的LSTM解碼器
3.6 本章小結(jié)
4 基于強(qiáng)化學(xué)習(xí)的實(shí)體關(guān)系聯(lián)合抽取模型
4.1 任務(wù)描述
4.2 模型構(gòu)建
4.2.1 強(qiáng)化學(xué)習(xí)模型
4.2.2 詞向量模型
4.2.3 雙向長短期記憶模型
4.2.4 條件隨機(jī)場模型
4.3 訓(xùn)練過程
4.4 本章小結(jié)
5 實(shí)驗(yàn)與結(jié)果分析
5.1 實(shí)驗(yàn)環(huán)境
5.2 數(shù)據(jù)集
5.3 評價(jià)指標(biāo)
5.4 實(shí)驗(yàn)設(shè)置
5.5 實(shí)驗(yàn)結(jié)果
5.6 實(shí)例分析
5.7 錯(cuò)誤分析
5.8 本章小結(jié)
6 總結(jié)與展望
6.1 總結(jié)
6.2 展望
參考文獻(xiàn)
致謝
本文編號:3914040
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3914040.html
最近更新
教材專著