面向交通信息服務(wù)的對(duì)話生成方法研究
發(fā)布時(shí)間:2021-08-22 00:53
城市交通發(fā)展帶來(lái)了大量的交通路況查詢、報(bào)警處理等信息服務(wù)需求,傳統(tǒng)的人工服務(wù)已不能滿足實(shí)際的應(yīng)用需求,人機(jī)對(duì)話技術(shù)逐步應(yīng)用于交通信息服務(wù)領(lǐng)域。在人機(jī)信息交互過(guò)程中意圖識(shí)別和對(duì)話文本生成是人機(jī)對(duì)話系統(tǒng)的核心,但人機(jī)對(duì)話技術(shù)在交通信息服務(wù)領(lǐng)域的應(yīng)用還存在以下問(wèn)題:一是用戶的對(duì)話內(nèi)容口語(yǔ)性強(qiáng),不能有效提取用戶的對(duì)話意圖;二是當(dāng)用戶對(duì)話內(nèi)容無(wú)明顯對(duì)話意圖時(shí),往往出現(xiàn)答非所問(wèn)的情況。針對(duì)上述問(wèn)題,本文將基于深度學(xué)習(xí)的文本分類技術(shù)和文本生成技術(shù)應(yīng)用于人機(jī)對(duì)話系統(tǒng),通過(guò)文本分類識(shí)別用戶的對(duì)話意圖,根據(jù)對(duì)話意圖類別調(diào)整對(duì)話策略,并針對(duì)用戶對(duì)話意圖不明確的對(duì)話內(nèi)容,采用基于深度學(xué)習(xí)的文本生成技術(shù)進(jìn)行應(yīng)答,提高了面向交通信息服務(wù)人機(jī)對(duì)話系統(tǒng)的用戶體驗(yàn)和智能性,具有重要的研究意義。具體研究?jī)?nèi)容如下:(1)針對(duì)交通信息服務(wù)領(lǐng)域用戶對(duì)話文本較短、口語(yǔ)性強(qiáng)的特點(diǎn),采用融合卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短記憶模型的方法,構(gòu)建了基于雙向長(zhǎng)短記憶模型與卷積神經(jīng)網(wǎng)絡(luò)的用戶意圖識(shí)別模型。實(shí)驗(yàn)表明,該模型可以有效抽取用戶對(duì)話文本的文本特征,提高用戶意圖識(shí)別的準(zhǔn)確率。(2)針對(duì)交通信息服務(wù)領(lǐng)域某些應(yīng)用場(chǎng)景語(yǔ)料相對(duì)較少且獲取困難,無(wú)法滿足深度...
【文章來(lái)源】:北方工業(yè)大學(xué)北京市
【文章頁(yè)數(shù)】:63 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1卷積神經(jīng)網(wǎng)絡(luò)的意圖識(shí)別模型示意圖??2.2基于長(zhǎng)短記憶模型的的文本特征抽取與意圖識(shí)別??
?最大池化層?_出層??圖2-1卷積神經(jīng)網(wǎng)絡(luò)的意圖識(shí)別模型示意圖??2.2基于長(zhǎng)短記憶模型的的文本特征抽取與意圖識(shí)別??雖然卷積神經(jīng)網(wǎng)絡(luò)(CNN)能夠抽取文本的空間特征且在用戶意圖識(shí)別方面??上取得了不錯(cuò)的效果,卻無(wú)法有效的抽取對(duì)話文本的序列信息。面對(duì)上述問(wèn)題,??研宄者逐步將長(zhǎng)短記憶模型(LSTM)應(yīng)用于用戶對(duì)話意圖識(shí)別。長(zhǎng)短記憶模型??(LSTM)是一種特殊形式的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),該模型的提出主要是為了解??決傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)存在梯度爆炸和梯度消失的問(wèn)題。由于LSTM在??文本序列信息抽取和解決長(zhǎng)期依賴問(wèn)題的優(yōu)異表現(xiàn),在自然語(yǔ)言處理領(lǐng)域得到了??廣泛應(yīng)用。雖然LSTM模型的變體很多,本章LSTM模型主要采用基于Graves??的提出的LSTM的變體,結(jié)構(gòu)如下圖2-2所示。??LSTM模型由一系列重復(fù)的記憶單元組成,每個(gè)時(shí)間步t上的記憶單元由輸??9??
本的序列信息。同時(shí)通過(guò)采用雙向長(zhǎng)短記憶模型,每個(gè)時(shí)間步的輸出都可以包含??完整的上下文信息,相比于單向的長(zhǎng)短記憶模型可以更好的對(duì)文本進(jìn)行表示。其??模型結(jié)構(gòu)如下圖2-3所示。??該模型由文本輸入層,長(zhǎng)短記憶層,卷積層,池化層以及Softmax層組成。??長(zhǎng)短記憶層接收對(duì)話文本的詞向量,并生成新的編碼,隨后將長(zhǎng)短記憶層的輸出??輸入到卷積層,通過(guò)卷積層提取文本的局部特征。卷積層的輸出匯集成一個(gè)低維??的向量,最終通過(guò)Softmax層輸出對(duì)話文本的意圖類別。??意圖類別??輸出層?|??Softmax??--P?—??Max?pooling??卷積網(wǎng)絡(luò)層?丨-鬥一鬥鬥鬥’?^門鬥^丨??8888888888??1〇1?1〇1?1〇1?1〇1?|〇|?1〇1?1〇1?1〇1?1〇1?1〇|??LSTM?|?LSTM???)?LSTM??-*\?I5TM??長(zhǎng)短記憶層????????LSTM?卜——LSTM?,??LSTM????LSTM??'?I??句向量I??輸入層?詞向量?|詞向量|?|詞向量|???|詞量|??分詞后句卞??圖2
本文編號(hào):3356671
【文章來(lái)源】:北方工業(yè)大學(xué)北京市
【文章頁(yè)數(shù)】:63 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1卷積神經(jīng)網(wǎng)絡(luò)的意圖識(shí)別模型示意圖??2.2基于長(zhǎng)短記憶模型的的文本特征抽取與意圖識(shí)別??
?最大池化層?_出層??圖2-1卷積神經(jīng)網(wǎng)絡(luò)的意圖識(shí)別模型示意圖??2.2基于長(zhǎng)短記憶模型的的文本特征抽取與意圖識(shí)別??雖然卷積神經(jīng)網(wǎng)絡(luò)(CNN)能夠抽取文本的空間特征且在用戶意圖識(shí)別方面??上取得了不錯(cuò)的效果,卻無(wú)法有效的抽取對(duì)話文本的序列信息。面對(duì)上述問(wèn)題,??研宄者逐步將長(zhǎng)短記憶模型(LSTM)應(yīng)用于用戶對(duì)話意圖識(shí)別。長(zhǎng)短記憶模型??(LSTM)是一種特殊形式的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),該模型的提出主要是為了解??決傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)存在梯度爆炸和梯度消失的問(wèn)題。由于LSTM在??文本序列信息抽取和解決長(zhǎng)期依賴問(wèn)題的優(yōu)異表現(xiàn),在自然語(yǔ)言處理領(lǐng)域得到了??廣泛應(yīng)用。雖然LSTM模型的變體很多,本章LSTM模型主要采用基于Graves??的提出的LSTM的變體,結(jié)構(gòu)如下圖2-2所示。??LSTM模型由一系列重復(fù)的記憶單元組成,每個(gè)時(shí)間步t上的記憶單元由輸??9??
本的序列信息。同時(shí)通過(guò)采用雙向長(zhǎng)短記憶模型,每個(gè)時(shí)間步的輸出都可以包含??完整的上下文信息,相比于單向的長(zhǎng)短記憶模型可以更好的對(duì)文本進(jìn)行表示。其??模型結(jié)構(gòu)如下圖2-3所示。??該模型由文本輸入層,長(zhǎng)短記憶層,卷積層,池化層以及Softmax層組成。??長(zhǎng)短記憶層接收對(duì)話文本的詞向量,并生成新的編碼,隨后將長(zhǎng)短記憶層的輸出??輸入到卷積層,通過(guò)卷積層提取文本的局部特征。卷積層的輸出匯集成一個(gè)低維??的向量,最終通過(guò)Softmax層輸出對(duì)話文本的意圖類別。??意圖類別??輸出層?|??Softmax??--P?—??Max?pooling??卷積網(wǎng)絡(luò)層?丨-鬥一鬥鬥鬥’?^門鬥^丨??8888888888??1〇1?1〇1?1〇1?1〇1?|〇|?1〇1?1〇1?1〇1?1〇1?1〇|??LSTM?|?LSTM???)?LSTM??-*\?I5TM??長(zhǎng)短記憶層????????LSTM?卜——LSTM?,??LSTM????LSTM??'?I??句向量I??輸入層?詞向量?|詞向量|?|詞向量|???|詞量|??分詞后句卞??圖2
本文編號(hào):3356671
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/3356671.html
最近更新
教材專著