基于深度學(xué)習(xí)的摘要生成模型研究
發(fā)布時間:2021-07-31 12:42
在信息爆炸的大數(shù)據(jù)時代,文本信息是人們獲取信息的主要來源,每天人們都要花費大量的時間和精力去閱讀文本。伴隨著計算機計算能力的飛躍,如果能讓計算機自動用簡短的文本來表達長文本的主要內(nèi)涵,無疑將有利于緩解信息過載的問題并且節(jié)省大量的人力資源。因此文本摘要技術(shù)應(yīng)運而生。目前主流的自動文本摘要技術(shù)有兩種方式,一種是抽取式,另一種是生成式。抽取式,就是從原文抽取跟中心思想最接近的一條或幾條句子作為摘要。而生成式是計算機在閱讀并理解整篇文檔中心思想的基礎(chǔ)上,重新生成摘要。隨著深度學(xué)習(xí)的發(fā)展,2014年Google Brain團隊提出了sequence-to-sequence模型,開啟了NLP中端到端網(wǎng)絡(luò)的研究,該模型也成為了生成式文本摘要的主流研究方向。然而sequence-to-sequence摘要生成模型仍然存在著未登錄詞和重復(fù)等問題。本文便針對這些問題提出改進算法,對生成式摘要技術(shù)進行研究,主要在以下幾個方面展開:1、構(gòu)建了基于注意力機制和束解碼搜索算法的sequence-to-sequence摘要生成模型為后面的研究打下基礎(chǔ)。在Encoder-Decoder框架的基礎(chǔ)上,使用雙向RNN作為...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:72 頁
【學(xué)位級別】:碩士
【部分圖文】:
典型的神經(jīng)元激活函數(shù)
RNN模型展開圖
LSTM結(jié)構(gòu)圖
【參考文獻】:
博士論文
[1]基于深度神經(jīng)網(wǎng)絡(luò)的文本表示及其應(yīng)用[D]. 戶保田.哈爾濱工業(yè)大學(xué) 2016
碩士論文
[1]基于深度學(xué)習(xí)的生成式自動摘要技術(shù)研究[D]. 郭洪杰.哈爾濱工業(yè)大學(xué) 2018
[2]基于seq2seq框架文本摘要的研究與實現(xiàn)[D]. 孫嘉偉.北方工業(yè)大學(xué) 2018
[3]基于深度學(xué)習(xí)的中文單文檔自動文摘方法研究[D]. 王煒.華中師范大學(xué) 2018
[4]基于LSTM的自動文本摘要技術(shù)研究[D]. 洪冬梅.華南理工大學(xué) 2018
本文編號:3313489
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:72 頁
【學(xué)位級別】:碩士
【部分圖文】:
典型的神經(jīng)元激活函數(shù)
RNN模型展開圖
LSTM結(jié)構(gòu)圖
【參考文獻】:
博士論文
[1]基于深度神經(jīng)網(wǎng)絡(luò)的文本表示及其應(yīng)用[D]. 戶保田.哈爾濱工業(yè)大學(xué) 2016
碩士論文
[1]基于深度學(xué)習(xí)的生成式自動摘要技術(shù)研究[D]. 郭洪杰.哈爾濱工業(yè)大學(xué) 2018
[2]基于seq2seq框架文本摘要的研究與實現(xiàn)[D]. 孫嘉偉.北方工業(yè)大學(xué) 2018
[3]基于深度學(xué)習(xí)的中文單文檔自動文摘方法研究[D]. 王煒.華中師范大學(xué) 2018
[4]基于LSTM的自動文本摘要技術(shù)研究[D]. 洪冬梅.華南理工大學(xué) 2018
本文編號:3313489
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3313489.html
最近更新
教材專著