面向自然語(yǔ)言理解的新槽值問(wèn)題研究與應(yīng)用
【文章頁(yè)數(shù)】:72 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??全連經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)單,易于實(shí)現(xiàn),對(duì)函數(shù)有很強(qiáng)的擬合能力
神經(jīng)網(wǎng)絡(luò)(Recurrent?Neural?Network,?RNN)[26]。RNN是一種節(jié)點(diǎn)定向連接成環(huán)的??人工神經(jīng)網(wǎng)絡(luò),用于處理序列數(shù)據(jù),有效地解決了全連接神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處??理領(lǐng)域的不足。圖2-2所示為典型的RNN結(jié)構(gòu)圖。??6?°t-i?°t?°t+1??A?八?....
圖2-2循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖【27】??從圖中可見(jiàn),這種網(wǎng)絡(luò)的內(nèi)部狀態(tài)可以展示動(dòng)態(tài)時(shí)序行為
?隱藏層?輸出層??圖2-1全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??全連接神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,易于實(shí)現(xiàn),對(duì)函數(shù)有很強(qiáng)的擬合能力。然??而,它的層數(shù)與每層網(wǎng)絡(luò)的節(jié)點(diǎn)數(shù)目均為固定,無(wú)法應(yīng)用于變長(zhǎng)的輸入。對(duì)于大??多數(shù)自然語(yǔ)言處理的應(yīng)用而言,其輸入往往是不定長(zhǎng)的自然語(yǔ)言文本。與此同時(shí),??全連接神....
圖2-3長(zhǎng)短期記憶網(wǎng)絡(luò)結(jié)構(gòu)圖[29]??圖2-3為LSTM—個(gè)存儲(chǔ)塊的結(jié)構(gòu)圖
m??圖2-3長(zhǎng)短期記憶網(wǎng)絡(luò)結(jié)構(gòu)圖[29]??圖2-3為LSTM—個(gè)存儲(chǔ)塊的結(jié)構(gòu)圖。從圖中可知,輸入門(mén)作用在最新的狀??態(tài)向量上,用于控制信息的更新,輸出門(mén)作用在當(dāng)前時(shí)刻的輸出上,用于選擇單??元的輸出,遺忘門(mén)則作用在上一時(shí)刻的狀態(tài)向量上,用于過(guò)濾歷史信息。其計(jì)算??方式分別如公....
圖3-1聯(lián)合糢型??本文采用雙向LSTM模型作為文本表示編碼的基本結(jié)構(gòu)
下標(biāo)t?=?0?7則表示第i條輸入中的第t個(gè)字或詞,w/為當(dāng)前輸入的字??向量表示。該表示可以由外部語(yǔ)料預(yù)先訓(xùn)練得到,在本文中,該表示先隨機(jī)初始??化,而后隨著模型訓(xùn)練一同更新。如圖3-1所示,聯(lián)合模型將同時(shí)預(yù)測(cè)其時(shí)序標(biāo)??簽\?sA}與槽值類(lèi)標(biāo)yf。??I"1?I??<——LS....
本文編號(hào):3921344
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3921344.html