基于自然語言處理的專利知識圖譜構(gòu)建研究
【文章頁數(shù)】:72 頁
【學位級別】:碩士
【部分圖文】:
圖2.2展示,圖中藍色框線內(nèi)的Encoder和Decoder具有6層相同的結(jié)構(gòu)
?力機制^??T-?1?遮掩的多頭注意L??Self-Attention???力機制?廣|??■_?0^0??-——4^==i?????^?1—1位置編碼??Input?Embedding?Output???x??Embedding??Inputs?f??1?I?Outputs?....
圖2.4基于規(guī)則和字典的命名實體抽取??為了解決以上問題,首先,相關(guān)領(lǐng)域的專家需要對領(lǐng)域內(nèi)的命名實體對象建立專業(yè)的字??典
進行對??外的擴展,只能適用于小范圍的領(lǐng)域。另外,盡管基于規(guī)則的方法具有對結(jié)構(gòu)化的數(shù)據(jù)的高??識別準確率,但是受規(guī)則的覆蓋范圍的限制,根本不能對規(guī)則之外的情況進行處理。如果制??定太多規(guī)則,則會導致規(guī)則之間沖突,規(guī)則與規(guī)則可能會相互制約。??;數(shù)據(jù)1?:^???■實體1??丨?丨....
圖2.6Bi-LSTM網(wǎng)絡結(jié)構(gòu)圖??16??
?杭州電子科技大學碩士學位論文???的記錄信息進行選擇性的保留,一定程度上解決了?RNN模型中的梯度問題,同時保留了?RNN??模型對信息的記錄能力。??迪忘門??Xt?Cf?J ̄^??/?輸出門??輸入門??Xt?xt?\??圖2.5LSTM單元結(jié)構(gòu)圖??LSTM網(wǎng)絡模型在RN....
圖2.5LSTM單元結(jié)構(gòu)圖??LSTM網(wǎng)絡模型在RNN網(wǎng)絡模型的基礎(chǔ)上,通過增加輸入門,輸出門以及遺忘門的機??制,通過控制每個神經(jīng)單元是否記錄與保存結(jié)果,來解決RNN網(wǎng)絡中的梯度爆炸和消失的問??題
?杭州電子科技大學碩士學位論文???的記錄信息進行選擇性的保留,一定程度上解決了?RNN模型中的梯度問題,同時保留了?RNN??模型對信息的記錄能力。??迪忘門??Xt?Cf?J ̄^??/?輸出門??輸入門??Xt?xt?\??圖2.5LSTM單元結(jié)構(gòu)圖??LSTM網(wǎng)絡模型在RN....
本文編號:3899597
本文鏈接:http://sikaile.net/tushudanganlunwen/3899597.html