基于深度學(xué)習(xí)的端到端面向任務(wù)對(duì)話系統(tǒng)研究
發(fā)布時(shí)間:2021-04-24 22:59
現(xiàn)在,面向任務(wù)對(duì)話系統(tǒng)成為了各大高校和許多大型互聯(lián)網(wǎng)公司以及一些初創(chuàng)公司的研究焦點(diǎn)。目前,對(duì)面向任務(wù)對(duì)話系統(tǒng)的研究主要是基于管道方法和基于端到端方法。管道方法需要大量的面向特定領(lǐng)域的手工制作,存在信用分配問題以及過程中模塊的相互依賴問題,使用端到端方法可以避免這些問題。本文提出基于有監(jiān)督的深度學(xué)習(xí),使用端到端方法實(shí)現(xiàn)的面向任務(wù)的對(duì)話系統(tǒng),該系統(tǒng)用于幫助用戶尋找餐館。由于面向特定任務(wù)的對(duì)話數(shù)據(jù)難以搜集,并且噪音高,本系統(tǒng)采用去詞匯化操作和共享權(quán)重策略以減少訓(xùn)練模型所需的數(shù)據(jù),并提高系統(tǒng)泛化能力。本系統(tǒng)由自然語言理解模塊、對(duì)話狀態(tài)追蹤模塊、數(shù)據(jù)庫操作模塊、對(duì)話策略模塊和自然語言生成模塊組成。本文主要研究?jī)?nèi)容包括:(1)本文使用去詞匯化方法對(duì)用戶輸入的句子進(jìn)行預(yù)處理,依據(jù)本體庫中定義的槽值對(duì),對(duì)句子中出現(xiàn)的槽和槽對(duì)應(yīng)的值做去詞匯化處理,以提高對(duì)話狀態(tài)追蹤器的泛化能力。(2)在自然語言理解模塊,本系統(tǒng)使用雙向LSTM建模,模型將去詞匯化處理后的序列作為輸入,輸出用戶意圖的分布式表示。(3)本系統(tǒng)使用卷積神經(jīng)網(wǎng)絡(luò)提取用戶輸入序列的特征,并使用循環(huán)神經(jīng)網(wǎng)絡(luò)為對(duì)話狀態(tài)追蹤器建模。從當(dāng)前用戶輸入與歷史...
【文章來源】:山東大學(xué)山東省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:64 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
第1章 緒論
1.1 課題背景與研究目的和意義
1.2 面向任務(wù)對(duì)話系統(tǒng)研究現(xiàn)狀
1.2.1 管道方法研究現(xiàn)狀
1.2.2 端到端方法研究現(xiàn)狀
1.3 本文主要工作
1.4 本文結(jié)構(gòu)
第2章 相關(guān)理論基礎(chǔ)
2.1 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
2.1.1 神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
2.1.2 BP神經(jīng)網(wǎng)絡(luò)
2.1.3 卷積神經(jīng)網(wǎng)絡(luò)(CNN)
2.1.4 CNN在句子建模上的應(yīng)用
2.1.5 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
2.1.6 長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)
2.1.7 雙向LSTM
2.2 自然語言處理相關(guān)知識(shí)
2.2.1 n-gram模型
2.2.2 Word Embedding詞嵌入
2.2.3 Seq2Seq模型介紹
2.2.4 Attention機(jī)制
2.2.5 Beam Search算法簡(jiǎn)介
2.3 本章小結(jié)
第3章 基于端到端方法的面向任務(wù)對(duì)話系統(tǒng)
3.1 基于端到端方法的面向任務(wù)對(duì)話系統(tǒng)的結(jié)構(gòu)框架
3.1.1 本體和去詞匯化特征
3.1.2 自然語言理解模塊(Encoder)
3.1.3 對(duì)話狀態(tài)追蹤
3.1.4 數(shù)據(jù)庫操作模塊
3.1.5 對(duì)話策略模塊
3.1.6 自然語言生成模塊
3.2 本章小結(jié)
第4章 實(shí)驗(yàn)結(jié)果與分析
4.1 面向任務(wù)對(duì)話數(shù)據(jù)集
4.2 系統(tǒng)訓(xùn)練與實(shí)驗(yàn)設(shè)置
4.2.1 追蹤器訓(xùn)練
4.2.2 系統(tǒng)訓(xùn)練
4.3 測(cè)試與分析
4.3.1 對(duì)話狀態(tài)追蹤性能評(píng)估
4.3.2 BLEU評(píng)估標(biāo)準(zhǔn)
4.3.3 系統(tǒng)測(cè)試與分析
4.4 本章小結(jié)
第5章 總結(jié)與展望
5.1 總結(jié)
5.2 展望
參考文獻(xiàn)
致謝
攻讀學(xué)位期間發(fā)表的學(xué)術(shù)成果和參加的科研項(xiàng)目
學(xué)位論文評(píng)閱及答辯情況表
本文編號(hào):3158219
【文章來源】:山東大學(xué)山東省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:64 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
第1章 緒論
1.1 課題背景與研究目的和意義
1.2 面向任務(wù)對(duì)話系統(tǒng)研究現(xiàn)狀
1.2.1 管道方法研究現(xiàn)狀
1.2.2 端到端方法研究現(xiàn)狀
1.3 本文主要工作
1.4 本文結(jié)構(gòu)
第2章 相關(guān)理論基礎(chǔ)
2.1 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
2.1.1 神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
2.1.2 BP神經(jīng)網(wǎng)絡(luò)
2.1.3 卷積神經(jīng)網(wǎng)絡(luò)(CNN)
2.1.4 CNN在句子建模上的應(yīng)用
2.1.5 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
2.1.6 長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)
2.1.7 雙向LSTM
2.2 自然語言處理相關(guān)知識(shí)
2.2.1 n-gram模型
2.2.2 Word Embedding詞嵌入
2.2.3 Seq2Seq模型介紹
2.2.4 Attention機(jī)制
2.2.5 Beam Search算法簡(jiǎn)介
2.3 本章小結(jié)
第3章 基于端到端方法的面向任務(wù)對(duì)話系統(tǒng)
3.1 基于端到端方法的面向任務(wù)對(duì)話系統(tǒng)的結(jié)構(gòu)框架
3.1.1 本體和去詞匯化特征
3.1.2 自然語言理解模塊(Encoder)
3.1.3 對(duì)話狀態(tài)追蹤
3.1.4 數(shù)據(jù)庫操作模塊
3.1.5 對(duì)話策略模塊
3.1.6 自然語言生成模塊
3.2 本章小結(jié)
第4章 實(shí)驗(yàn)結(jié)果與分析
4.1 面向任務(wù)對(duì)話數(shù)據(jù)集
4.2 系統(tǒng)訓(xùn)練與實(shí)驗(yàn)設(shè)置
4.2.1 追蹤器訓(xùn)練
4.2.2 系統(tǒng)訓(xùn)練
4.3 測(cè)試與分析
4.3.1 對(duì)話狀態(tài)追蹤性能評(píng)估
4.3.2 BLEU評(píng)估標(biāo)準(zhǔn)
4.3.3 系統(tǒng)測(cè)試與分析
4.4 本章小結(jié)
第5章 總結(jié)與展望
5.1 總結(jié)
5.2 展望
參考文獻(xiàn)
致謝
攻讀學(xué)位期間發(fā)表的學(xué)術(shù)成果和參加的科研項(xiàng)目
學(xué)位論文評(píng)閱及答辯情況表
本文編號(hào):3158219
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3158219.html
最近更新
教材專著