基于深度學(xué)習(xí)的新聞自動(dòng)摘要技術(shù)
發(fā)布時(shí)間:2021-06-15 23:55
隨著當(dāng)前互聯(lián)網(wǎng)和移動(dòng)互聯(lián)網(wǎng)的迅猛發(fā)展,網(wǎng)絡(luò)信息呈現(xiàn)出爆炸式增長,如何有效自動(dòng)化地獲取所需信息成為當(dāng)前情報(bào)科學(xué)的研究熱點(diǎn)。自動(dòng)摘要技術(shù)可以對(duì)文本信息進(jìn)行壓縮和提煉,是解決該問題的重要手段之一,F(xiàn)有的抽取式自動(dòng)摘要技術(shù)是從原文中抓取關(guān)鍵詞或句子重組后形成摘要。這種技術(shù)易于實(shí)現(xiàn),但摘要句往往前后邏輯性不強(qiáng),不夠流暢,且使用的詞都是在原文中出現(xiàn)的詞,語言不夠豐富。生成式自動(dòng)摘要技術(shù)運(yùn)用智能算法理解文本內(nèi)容進(jìn)而生成邏輯性強(qiáng)表達(dá)流暢的摘要。目前通用模型還存在摘要不準(zhǔn)確語義不夠豐富的問題值得研究。本文在對(duì)現(xiàn)有的詞向量化方法和深度學(xué)習(xí)模型深入分析研究的基礎(chǔ)上,提出了基于BTWPS自動(dòng)編碼器的生成式自動(dòng)摘要模型。自動(dòng)編碼器包括編碼器和解碼器兩個(gè)部分,本文主要從詞向量化、編碼器和解碼器三個(gè)方面做出如下工作:(1)詞向量化部分。本文引入詞的關(guān)鍵性和詞性兩個(gè)語義特征,并提出了一種TF-IDF值和詞性標(biāo)注的向量化方法,將TF-IDF值和詞性標(biāo)注信息融入基礎(chǔ)詞向量中形成新的詞向量。與原本詞向量相比,該方法重點(diǎn)突出了詞的關(guān)鍵性和詞性特征,提升了詞義理解能力,并最終提高摘要質(zhì)量。(2)編碼器部分。本文分析了三種循環(huán)神...
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:78 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
符號(hào)對(duì)照表
縮略語對(duì)照表
第一章 緒論
1.1 課題背景及意義
1.2 國內(nèi)外研究現(xiàn)狀
1.3 研究內(nèi)容
1.4 論文的組織結(jié)構(gòu)
第二章 基于BTWP&S自動(dòng)編碼器的生成式自動(dòng)摘要模型
2.1 引言
2.2 通用模型
2.3 基于BTWP&S自動(dòng)編碼器的生成式自動(dòng)摘要模型
2.3.1 預(yù)處理模塊
2.3.2 預(yù)處理模塊
2.3.3 編碼器模塊
2.4 本章小結(jié)
第三章 文本預(yù)處理
3.1 引言
3.2 文本分詞
3.3 詞向量模型
3.4 詞向量優(yōu)化
3.4.1 詞向量的生成與優(yōu)化架構(gòu)
3.4.2 詞的關(guān)鍵性的向量化
3.4.3 詞性標(biāo)注的向量化
3.5 實(shí)驗(yàn)與分析
3.6 本章小結(jié)
第四章 BTWPS模型編碼器的構(gòu)建
4.1 引言
4.2 循環(huán)神經(jīng)網(wǎng)絡(luò)
4.3 循環(huán)神經(jīng)網(wǎng)絡(luò)門結(jié)構(gòu)分析
4.3.1 長短時(shí)記憶Long Short-Term Memory(LSTM)
4.3.2 門循環(huán)單元Gated Recurrent Unit(GRU)
4.3.3 比較與分析
4.4 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)編碼器
4.5 注意力機(jī)制
4.6 本章小結(jié)
第五章 BTWPS模型解碼器的構(gòu)建
5.1 引言
5.2 基于狀態(tài)層的解碼器
5.3 解碼器詞匯表重組
5.4 實(shí)驗(yàn)與分析
5.5 本章小結(jié)
第六章 驗(yàn)證與分析
6.1 引言
6.2 數(shù)據(jù)集
6.3 實(shí)驗(yàn)測評(píng)方法
6.4 實(shí)驗(yàn)設(shè)置與結(jié)果分析
6.5 本章小結(jié)
第七章 總結(jié)與展望
7.1 論文的主要工作總結(jié)
7.2 展望
參考文獻(xiàn)
致謝
作者簡介
本文編號(hào):3231949
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:78 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
符號(hào)對(duì)照表
縮略語對(duì)照表
第一章 緒論
1.1 課題背景及意義
1.2 國內(nèi)外研究現(xiàn)狀
1.3 研究內(nèi)容
1.4 論文的組織結(jié)構(gòu)
第二章 基于BTWP&S自動(dòng)編碼器的生成式自動(dòng)摘要模型
2.1 引言
2.2 通用模型
2.3 基于BTWP&S自動(dòng)編碼器的生成式自動(dòng)摘要模型
2.3.1 預(yù)處理模塊
2.3.2 預(yù)處理模塊
2.3.3 編碼器模塊
2.4 本章小結(jié)
第三章 文本預(yù)處理
3.1 引言
3.2 文本分詞
3.3 詞向量模型
3.4 詞向量優(yōu)化
3.4.1 詞向量的生成與優(yōu)化架構(gòu)
3.4.2 詞的關(guān)鍵性的向量化
3.4.3 詞性標(biāo)注的向量化
3.5 實(shí)驗(yàn)與分析
3.6 本章小結(jié)
第四章 BTWPS模型編碼器的構(gòu)建
4.1 引言
4.2 循環(huán)神經(jīng)網(wǎng)絡(luò)
4.3 循環(huán)神經(jīng)網(wǎng)絡(luò)門結(jié)構(gòu)分析
4.3.1 長短時(shí)記憶Long Short-Term Memory(LSTM)
4.3.2 門循環(huán)單元Gated Recurrent Unit(GRU)
4.3.3 比較與分析
4.4 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)編碼器
4.5 注意力機(jī)制
4.6 本章小結(jié)
第五章 BTWPS模型解碼器的構(gòu)建
5.1 引言
5.2 基于狀態(tài)層的解碼器
5.3 解碼器詞匯表重組
5.4 實(shí)驗(yàn)與分析
5.5 本章小結(jié)
第六章 驗(yàn)證與分析
6.1 引言
6.2 數(shù)據(jù)集
6.3 實(shí)驗(yàn)測評(píng)方法
6.4 實(shí)驗(yàn)設(shè)置與結(jié)果分析
6.5 本章小結(jié)
第七章 總結(jié)與展望
7.1 論文的主要工作總結(jié)
7.2 展望
參考文獻(xiàn)
致謝
作者簡介
本文編號(hào):3231949
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3231949.html
最近更新
教材專著