天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于Transformer的對(duì)話(huà)系統(tǒng)模型設(shè)計(jì)與壓縮方法研究

發(fā)布時(shí)間:2021-01-06 00:52
  對(duì)話(huà)系統(tǒng)是自然語(yǔ)言處理的研究熱點(diǎn)之一,其研究任務(wù)包括對(duì)話(huà)生成、對(duì)話(huà)匹配、對(duì)話(huà)狀態(tài)跟蹤和對(duì)話(huà)動(dòng)作識(shí)別等。目前有關(guān)研究集中在各個(gè)任務(wù)的模型性能提升上,然而不同的任務(wù)使用的基礎(chǔ)編碼器仍然以循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)或卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)為主。近期出現(xiàn)的Transformer模型能夠捕獲句子內(nèi)部詞匯之間的關(guān)系,被證明在自然語(yǔ)義上具有比RNN、CNN更強(qiáng)的編碼能力。但是Transformer模型不適合編碼長(zhǎng)文本信息,而對(duì)話(huà)數(shù)據(jù)的一個(gè)樣本通常具有多個(gè)對(duì)話(huà)輪次,文本信息過(guò)長(zhǎng),因此該模型無(wú)法直接應(yīng)用到對(duì)話(huà)任務(wù)中。此外,該模型的計(jì)算量與顯存占用量過(guò)大,難以在實(shí)際中廣泛應(yīng)用。針對(duì)上述問(wèn)題,本文對(duì)如何將Transformer模型應(yīng)用于對(duì)話(huà)任務(wù)進(jìn)行展開(kāi)研究,本文的主要工作包括:1)設(shè)計(jì)了適合編碼對(duì)話(huà)數(shù)據(jù)的Mem-Transformer模型。該模型通過(guò)記憶網(wǎng)絡(luò)在不同對(duì)話(huà)輪次之間傳遞信息,實(shí)現(xiàn)多輪對(duì)話(huà)的編碼,并通過(guò)信息壓縮方式減小模型計(jì)算量,最終在對(duì)話(huà)匹配、對(duì)話(huà)狀態(tài)跟蹤和對(duì)話(huà)動(dòng)作識(shí)別任務(wù)中超過(guò)其他比較模型。... 

【文章來(lái)源】:浙江大學(xué)浙江省 211工程院校 985工程院校 教育部直屬院校

【文章頁(yè)數(shù)】:82 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于Transformer的對(duì)話(huà)系統(tǒng)模型設(shè)計(jì)與壓縮方法研究


記憶網(wǎng)

網(wǎng)絡(luò)信息,內(nèi)容,碩士學(xué)位,論文


記憶網(wǎng)絡(luò)信息內(nèi)容圖

相對(duì)位置,模型,信息壓縮


浙江大學(xué)碩士學(xué)位論文第3章多層記憶編碼模型MEM-TRANSFORMER圖3.7多層局部相對(duì)位置Attention圖的信息量越來(lái)越多。rel=M∑i=1Mapfinal[i,iwin:i+win](3.18)3.4本章小結(jié)本章主要介紹了適合對(duì)話(huà)文本編碼的Mem-Transformer模型。模型通過(guò)記憶網(wǎng)絡(luò)傳遞對(duì)話(huà)上文信息;通過(guò)信息壓縮機(jī)制節(jié)省計(jì)算量;模型能夠兼容BERT預(yù)訓(xùn)練參數(shù);模型適合對(duì)話(huà)系統(tǒng)線(xiàn)上服務(wù)。最后通過(guò)在三種不同的對(duì)話(huà)任務(wù)上進(jìn)行實(shí)驗(yàn)證明了模型的有效性。49


本文編號(hào):2959607

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/2959607.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)88f18***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com