政務(wù)公文命名實(shí)體識別方法研究及應(yīng)用
【文章頁數(shù)】:84 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1鏈?zhǔn)浇Y(jié)構(gòu)??Fig.2-1?Chain?Structures??
?北京化工大學(xué)碩士學(xué)位論文???x?=?xl7x2,...,x???圖2-1鏈?zhǔn)浇Y(jié)構(gòu)??Fig.2-1?Chain?Structures??就是X,?Y,,Y2,那么對應(yīng)的條件概率(這里以Y2為例求解)那么應(yīng)該寫成如公式(2??-2)下:??P?(Y2|X,Y,,Y2,Y3.......
圖2-2長短記憶模塊??Fig.2-2?Long-Short?Term?Memory?Module??
法介紹??LSTM可以在匹配輸入和輸出序列時(shí)使用與上下文相關(guān)的信息,并且標(biāo)準(zhǔn)遞歸祌??經(jīng)網(wǎng)絡(luò)(RNN)可訪問的上下文信息的范圍是有限的。該問題導(dǎo)致隱藏層的輸入對??網(wǎng)絡(luò)輸出的影響隨著網(wǎng)絡(luò)循環(huán)的重現(xiàn)而降低。因此,為了解決這個(gè)問題,長期和短??期記憶結(jié)構(gòu)(LSTM)誕生了。長期和短期....
圖2-3長雙向長短時(shí)記憶模塊??Fig.2-3?Bi?Long-Short?Term?Memory?Module??在Forward層從1時(shí)刻到t時(shí)刻正向計(jì)算一遍,得到并保存每個(gè)時(shí)刻向前隱含層??
若干輸入和后面若干輸入共同決定,這樣會更加準(zhǔn)確。因此提出了雙??向循環(huán)神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)如下圖。可以看到Forward層和Backward層同連接著輸??出層,其中包含了?6個(gè)共享權(quán)值wl-w6。??Output?Layer??t\?T\?t\??w6?\?w6?\?w6??Ba....
圖2-4(a)公文示例??Fig.2-4(a)?government?official?document?example??14??
構(gòu)比較復(fù)雜,??并且有很多新的名詞和設(shè)定。??第二,崗位和職級中相互的指代和設(shè)定。并且其的命名實(shí)體指代不清晰,所有的??命名實(shí)體的相互影響識別,制約了崗位的識別,如“副局級”,“副局長”??第四,命名實(shí)體的在政務(wù)公文中沒有固定的長度和格式。兩個(gè)字(“紀(jì)委”、“網(wǎng)信??辦”),(“....
本文編號:4018900
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/4018900.html