融合區(qū)分度信息的神經網絡關系分類方法
【文章頁數】:77 頁
【學位級別】:碩士
【部分圖文】:
圖1-1知識庫構建簡圖??
?山東大學碩士學位論文???另外,關系分類對知識圖譜的構建有重要作用。知識圖譜用符號描述現(xiàn)實世界??中的概念和概念之間的關系,知識圖譜本身是一種結構化的語義知識庫。它以“實??體-關系-實體”這樣的三元組為基本組成單位,除三元組外,知識圖譜中還包含實??體的“屬性-值”對,實體之....
圖2-1神經網絡語言模型??前面提到通過訓練神經網絡語言模型得到詞向量的方法太過耗時,而Milokov??等人[39_于2〇丨3年提出的w〇rd2歡剛好解決了這個問題
將詞表示看做模型中需要訓練的參數,利用詞語上下文信息直接得到預測詞的詞??表示。Bengio等人于2003年提出神經網絡語言模型(Neural?Network?Language?Model,??NNLM)^,同時得到了語言模型和詞向量,該模型如圖2-1所示,它的本質仍是??N-g....
圖2-2?CBOW模型結構圖??
CBOW模型與神經網絡語言模型結構類似,分為三層,輸入層,映射層(隱??藏層),輸出層。只是在CBOW模型中,映射層(隱藏層)不是非線性函數而是采??用求和操作,這一改變大大加快了模型的訓練速度。其模型結構如圖2-2所示:??w(t-2)?w(t-l)?w?(t+1)?w?(t+....
圖2-3?Skip-gram模型結構??2.?2.?2?Word2vec的加速方法??
與CBOW模型相同,該模型也是分為三層,輸入層,映射層和輸出層,輸入??M輸入的是中心詞的one-hot編碼,經過映射層后送入到輸出層,在Skip-gram??模型中,映射層沒有求平均操作,其模型結構如圖2-3所示。Skip-gram模型中輸??入層的向量為et,經過映射層的線性....
本文編號:3916542
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/3916542.html