面向大規(guī)模知識庫的開放域問題生成技術研究
【文章頁數】:62 頁
【學位級別】:碩士
【部分圖文】:
圖2.4所示,其中V表示第/(e??N)個堆疊塊的輸出結果
MASTER'S?THESIS??構成,本質也是一個Encoder-Decoder的結構,在十多個自然語言處理任務中獲??得突破,這也證明了?Attention機制的有效性,本文也將其融入到QG任務中。最??初,Transformer用于機器翻譯任務,隨著其有效性,如今逐步代替主....
圖3.3基于Attention-Copy機制的解碼層結構??與編碼端一致,解碼端也基于LSTM進行解碼
??y.i?-???'(?i??'?一丨???一一一一???、?l?l?:???1?a?—r???Decoder?Selectiver^^???(X)^?““????Readfcr?Lj?—?LSTM???(?Attention'??y_J?^??MPMamb?oddSodo??....
圖4.1本章模型框架??33??
Cj^k}項士學位論文??MASTER'S?THESIS??并且還使用BERT預訓練模型獲得詞語的語義表示。與Seq2Seq模型結合,從而??較好的解決三元組所缺乏的上下文信息,以獲得更準確的潛在語義,使得模型生??成的問題更加豐富流暢。??4.2模型結構??本節(jié)將介紹基于Gra....
圖4.2所示的網絡塊中堆疊L次,在輸入殘??差網絡之前進行拼接
基于Transformer結構,在全局圖的背景語義下進一步捕捉主語實體、關系、賓??語實體之間的關聯(lián),使作為輸入的三元組具有更加符合本任務的語義粒度表示。??Vaswani等人提出的Transformer結構,通過全局上下文建模的多頭自注意力機制??來實現(xiàn)高效且并行的計算,具有并....
本文編號:3897394
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3897394.html