基于深度學(xué)習(xí)的遠(yuǎn)程監(jiān)督關(guān)系抽取
發(fā)布時(shí)間:2023-02-01 20:07
信息時(shí)代的急速發(fā)展使得人們?cè)诨ヂ?lián)網(wǎng)上存儲(chǔ)及運(yùn)用的文本數(shù)據(jù)規(guī)模急劇增加。為了從海量的文本中發(fā)現(xiàn)目標(biāo)信息,信息抽取技術(shù)應(yīng)運(yùn)而生。作為信息抽取領(lǐng)域重要的研究課題,針對(duì)實(shí)體關(guān)系抽取的研究,其根本目的在于從半結(jié)構(gòu)文本或非結(jié)構(gòu)文本中發(fā)現(xiàn)實(shí)體之間的語(yǔ)義關(guān)系,以便人們快速的理解復(fù)雜文本中的隱藏信息。具有較強(qiáng)的研究?jī)r(jià)值和研究意義。本文主要研究了在遠(yuǎn)程監(jiān)督數(shù)據(jù)集上的關(guān)系抽取任務(wù)的實(shí)現(xiàn),基于深度學(xué)習(xí)技術(shù)與遠(yuǎn)程監(jiān)督思想提出了一種新的實(shí)體關(guān)系抽取方法。針對(duì)遠(yuǎn)程監(jiān)督數(shù)據(jù)的特點(diǎn),在總結(jié)現(xiàn)有的研究基礎(chǔ)上,本文分別從實(shí)體關(guān)系特征提取和抑制噪音數(shù)據(jù)影響兩個(gè)方面開(kāi)展研究。在實(shí)體關(guān)系特征提取方面,以往的關(guān)系抽取研究中深度學(xué)習(xí)模型通常只包含淺層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計(jì)的模型只能提取到淺層的語(yǔ)義信息,因此本文從網(wǎng)絡(luò)深度的角度出發(fā),通過(guò)引入深度殘差網(wǎng)絡(luò)技術(shù)以提取更高層的特征語(yǔ)義信息使模型可以學(xué)習(xí)到更豐富的關(guān)系特征,設(shè)計(jì)了多層網(wǎng)絡(luò)模型實(shí)驗(yàn)以探索更適合的模型深度;在抑制噪音數(shù)據(jù)影響方面,現(xiàn)有的研究偏重于引入句法結(jié)構(gòu)等信息,需要大量的專家知識(shí),而本文從句子信息對(duì)目標(biāo)關(guān)系的重要性角度出發(fā),在池化層引入注意力機(jī)制用以自動(dòng)捕捉更加關(guān)鍵的特征信息...
【文章頁(yè)數(shù)】:61 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
1 緒論
1.1 研究背景
1.2 研究意義
1.3 國(guó)內(nèi)外研究概況
1.4 研究?jī)?nèi)容
1.5 本文的組織結(jié)構(gòu)
2 相關(guān)理論與技術(shù)分析
2.1 遠(yuǎn)程監(jiān)督
2.2 實(shí)體關(guān)系抽取
2.3 遠(yuǎn)程監(jiān)督數(shù)據(jù)集及評(píng)價(jià)標(biāo)準(zhǔn)
2.4 本章小結(jié)
3 基于Res Net的遠(yuǎn)程監(jiān)督關(guān)系抽取
3.1 引言
3.2 卷積神經(jīng)網(wǎng)絡(luò)
3.3 CNN模型設(shè)計(jì)
3.4 Res Net模型設(shè)計(jì)
3.5 實(shí)驗(yàn)與分析
3.5.1 實(shí)驗(yàn)流程
3.5.2 多層網(wǎng)絡(luò)模型實(shí)驗(yàn)設(shè)計(jì)
3.5.3 層數(shù)加深的效應(yīng)分析
3.6 本章小結(jié)
4 基于Attention Pooling的遠(yuǎn)程監(jiān)督關(guān)系抽取
4.1 引言
4.2 NLP中的注意力機(jī)制
4.3 Attention Pooling學(xué)習(xí)模型
4.4 實(shí)驗(yàn)與分析
4.4.1 實(shí)驗(yàn)流程
4.4.2 Attention Pooling Model實(shí)驗(yàn)設(shè)計(jì)
4.4.3 注意力機(jī)制對(duì)噪音數(shù)據(jù)的抑制效應(yīng)分析
4.5 本章小結(jié)
5 結(jié)合注意力機(jī)制與深度殘差網(wǎng)絡(luò)的遠(yuǎn)程監(jiān)督關(guān)系抽取
5.1 引言
5.2 遠(yuǎn)程監(jiān)督數(shù)據(jù)預(yù)處理
5.2.1 詞嵌入
5.2.2 位置嵌入
5.2.3 數(shù)據(jù)填充
5.3 ARCNN學(xué)習(xí)模型
5.3.1 輸入映射層
5.3.2 Convolution,Res Net
5.3.3 Attention Pooling,Softmax Output
5.3.4 訓(xùn)練和優(yōu)化策略
5.4 實(shí)驗(yàn)與分析
5.4.1 實(shí)驗(yàn)流程
5.4.2 ARCNN模型實(shí)驗(yàn)設(shè)計(jì)
5.4.3 ARCNN模型性能分析
5.5 本章小結(jié)
6 總結(jié)與展望
6.1 論文總結(jié)
6.2 未來(lái)展望
參考文獻(xiàn)
致謝
附錄1 攻讀碩士學(xué)位期間參與的項(xiàng)目和發(fā)表的論文
本文編號(hào):3734418
【文章頁(yè)數(shù)】:61 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
1 緒論
1.1 研究背景
1.2 研究意義
1.3 國(guó)內(nèi)外研究概況
1.4 研究?jī)?nèi)容
1.5 本文的組織結(jié)構(gòu)
2 相關(guān)理論與技術(shù)分析
2.1 遠(yuǎn)程監(jiān)督
2.2 實(shí)體關(guān)系抽取
2.3 遠(yuǎn)程監(jiān)督數(shù)據(jù)集及評(píng)價(jià)標(biāo)準(zhǔn)
2.4 本章小結(jié)
3 基于Res Net的遠(yuǎn)程監(jiān)督關(guān)系抽取
3.1 引言
3.2 卷積神經(jīng)網(wǎng)絡(luò)
3.3 CNN模型設(shè)計(jì)
3.4 Res Net模型設(shè)計(jì)
3.5 實(shí)驗(yàn)與分析
3.5.1 實(shí)驗(yàn)流程
3.5.2 多層網(wǎng)絡(luò)模型實(shí)驗(yàn)設(shè)計(jì)
3.5.3 層數(shù)加深的效應(yīng)分析
3.6 本章小結(jié)
4 基于Attention Pooling的遠(yuǎn)程監(jiān)督關(guān)系抽取
4.1 引言
4.2 NLP中的注意力機(jī)制
4.3 Attention Pooling學(xué)習(xí)模型
4.4 實(shí)驗(yàn)與分析
4.4.1 實(shí)驗(yàn)流程
4.4.2 Attention Pooling Model實(shí)驗(yàn)設(shè)計(jì)
4.4.3 注意力機(jī)制對(duì)噪音數(shù)據(jù)的抑制效應(yīng)分析
4.5 本章小結(jié)
5 結(jié)合注意力機(jī)制與深度殘差網(wǎng)絡(luò)的遠(yuǎn)程監(jiān)督關(guān)系抽取
5.1 引言
5.2 遠(yuǎn)程監(jiān)督數(shù)據(jù)預(yù)處理
5.2.1 詞嵌入
5.2.2 位置嵌入
5.2.3 數(shù)據(jù)填充
5.3 ARCNN學(xué)習(xí)模型
5.3.1 輸入映射層
5.3.2 Convolution,Res Net
5.3.3 Attention Pooling,Softmax Output
5.3.4 訓(xùn)練和優(yōu)化策略
5.4 實(shí)驗(yàn)與分析
5.4.1 實(shí)驗(yàn)流程
5.4.2 ARCNN模型實(shí)驗(yàn)設(shè)計(jì)
5.4.3 ARCNN模型性能分析
5.5 本章小結(jié)
6 總結(jié)與展望
6.1 論文總結(jié)
6.2 未來(lái)展望
參考文獻(xiàn)
致謝
附錄1 攻讀碩士學(xué)位期間參與的項(xiàng)目和發(fā)表的論文
本文編號(hào):3734418
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3734418.html
最近更新
教材專著