基于深度學(xué)習(xí)的開放域情感對話生成研究
發(fā)布時間:2021-01-28 03:12
開放域情感對話旨在非任務(wù)型的閑聊式對話中,為機器生成的應(yīng)答語句賦予相應(yīng)情感,從而使人機對話交互更加自然、親切和生動。伴隨著社交網(wǎng)絡(luò)的迅猛發(fā)展,海量的對話語料為對話系統(tǒng)提供了豐富的數(shù)據(jù)資源支撐,而計算機硬件和深度學(xué)習(xí)的發(fā)展又為對話生成提供了強大的技術(shù)支持。近年來,對話系統(tǒng)在學(xué)術(shù)界和工業(yè)界已受到得越來越多的青睞和關(guān)注。在人機對話發(fā)展中,賦予對話系統(tǒng)情感感知和互動是一個重要方面,然而目前解決這一問題也存在著諸多困難和挑戰(zhàn)。首先,在數(shù)據(jù)方面需要大規(guī)模的具有情感標(biāo)注的對話語料。其次,在對話生成的質(zhì)量上如何做到流暢通順、上下文相關(guān),另外如何使得生成的對話蘊含相應(yīng)的情感色彩。最后,開放域?qū)υ挷o唯一標(biāo)準的應(yīng)答語句,如何對機器生成的對話進行評測是面臨的又一難題。本文采用了NLPCC 2017情感對話生成任務(wù)中數(shù)據(jù)集,利用深度學(xué)習(xí)模型解決情感對話生成中的挑戰(zhàn),嘗試和采用了多種評測指標(biāo)和方法。具體來說,本文在帶有情感標(biāo)簽的大規(guī)模對話語料集上,利用深度學(xué)習(xí)技術(shù)訓(xùn)練序列到序列模型生成對話語句,在此基礎(chǔ)上,使用預(yù)訓(xùn)練的情感監(jiān)督模型為序列到序列模型生成的應(yīng)答語句賦予相應(yīng)情感。評測上采用了自動評測指標(biāo)和人工評測的方...
【文章來源】:華中師范大學(xué)湖北省 211工程院校 教育部直屬院校
【文章頁數(shù)】:58 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2.2二維卷積網(wǎng)絡(luò)結(jié)構(gòu)??
6?4?17??圖2.4最大池化層??圖2.4是在4?x?4大小的卷積運算矩陣進行2?x?2局部窗口最大池化的例子,通??過最大池化保留了原卷積運算矩陣中局部區(qū)域的最顯著特征。??2.2.2循聊經(jīng)網(wǎng)絡(luò)??循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent?Neural?Network,RNN)是一類具有短期記憶的神??經(jīng)網(wǎng)絡(luò)模型,常用于序列信息的建模。簡單的兩層前饋神經(jīng)網(wǎng)絡(luò)中,只存在相鄰??的層與層之間的連接,每層的節(jié)點之間是無連接的,并且需要事先固定好輸入、??輸出數(shù)據(jù)的長度,對于變長序列的數(shù)據(jù)無法進行處理。循環(huán)神經(jīng)網(wǎng)絡(luò)除了在層與??層之間具有連接,每層中的神經(jīng)元之間也是存在連接的,將序列中的每個節(jié)點看??作時間節(jié)點,沿時間維度就可迭代地處理變長序列的數(shù)據(jù)。??假設(shè)循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是序列X?=?[h,x2,xT],那么在/時刻的輸入為xt,??隱藏層對應(yīng)的輸出向量&不僅會接收當(dāng)前時刻輸入的序列的的信息
?6?7??6?4?17??圖2.4最大池化層??圖2.4是在4?x?4大小的卷積運算矩陣進行2?x?2局部窗口最大池化的例子,通??過最大池化保留了原卷積運算矩陣中局部區(qū)域的最顯著特征。??2.2.2循聊經(jīng)網(wǎng)絡(luò)??循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent?Neural?Network,RNN)是一類具有短期記憶的神??經(jīng)網(wǎng)絡(luò)模型,常用于序列信息的建模。簡單的兩層前饋神經(jīng)網(wǎng)絡(luò)中,只存在相鄰??的層與層之間的連接,每層的節(jié)點之間是無連接的,并且需要事先固定好輸入、??輸出數(shù)據(jù)的長度,對于變長序列的數(shù)據(jù)無法進行處理。循環(huán)神經(jīng)網(wǎng)絡(luò)除了在層與??層之間具有連接,每層中的神經(jīng)元之間也是存在連接的,將序列中的每個節(jié)點看??作時間節(jié)點,沿時間維度就可迭代地處理變長序列的數(shù)據(jù)。??假設(shè)循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是序列X?=?[h
本文編號:3004253
【文章來源】:華中師范大學(xué)湖北省 211工程院校 教育部直屬院校
【文章頁數(shù)】:58 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2.2二維卷積網(wǎng)絡(luò)結(jié)構(gòu)??
6?4?17??圖2.4最大池化層??圖2.4是在4?x?4大小的卷積運算矩陣進行2?x?2局部窗口最大池化的例子,通??過最大池化保留了原卷積運算矩陣中局部區(qū)域的最顯著特征。??2.2.2循聊經(jīng)網(wǎng)絡(luò)??循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent?Neural?Network,RNN)是一類具有短期記憶的神??經(jīng)網(wǎng)絡(luò)模型,常用于序列信息的建模。簡單的兩層前饋神經(jīng)網(wǎng)絡(luò)中,只存在相鄰??的層與層之間的連接,每層的節(jié)點之間是無連接的,并且需要事先固定好輸入、??輸出數(shù)據(jù)的長度,對于變長序列的數(shù)據(jù)無法進行處理。循環(huán)神經(jīng)網(wǎng)絡(luò)除了在層與??層之間具有連接,每層中的神經(jīng)元之間也是存在連接的,將序列中的每個節(jié)點看??作時間節(jié)點,沿時間維度就可迭代地處理變長序列的數(shù)據(jù)。??假設(shè)循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是序列X?=?[h,x2,xT],那么在/時刻的輸入為xt,??隱藏層對應(yīng)的輸出向量&不僅會接收當(dāng)前時刻輸入的序列的的信息
?6?7??6?4?17??圖2.4最大池化層??圖2.4是在4?x?4大小的卷積運算矩陣進行2?x?2局部窗口最大池化的例子,通??過最大池化保留了原卷積運算矩陣中局部區(qū)域的最顯著特征。??2.2.2循聊經(jīng)網(wǎng)絡(luò)??循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent?Neural?Network,RNN)是一類具有短期記憶的神??經(jīng)網(wǎng)絡(luò)模型,常用于序列信息的建模。簡單的兩層前饋神經(jīng)網(wǎng)絡(luò)中,只存在相鄰??的層與層之間的連接,每層的節(jié)點之間是無連接的,并且需要事先固定好輸入、??輸出數(shù)據(jù)的長度,對于變長序列的數(shù)據(jù)無法進行處理。循環(huán)神經(jīng)網(wǎng)絡(luò)除了在層與??層之間具有連接,每層中的神經(jīng)元之間也是存在連接的,將序列中的每個節(jié)點看??作時間節(jié)點,沿時間維度就可迭代地處理變長序列的數(shù)據(jù)。??假設(shè)循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是序列X?=?[h
本文編號:3004253
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3004253.html
最近更新
教材專著