基于BERT-CNN的電影原聲智能問(wèn)答系統(tǒng)
【文章頁(yè)數(shù)】:5 頁(yè)
【部分圖文】:
圖1系統(tǒng)框架
該文設(shè)計(jì)的基于知識(shí)圖譜的問(wèn)答系統(tǒng),主要結(jié)合知識(shí)圖譜將用戶輸入的自然語(yǔ)言問(wèn)句轉(zhuǎn)化為Cypher查詢語(yǔ)句。首先需要對(duì)用戶輸入的自然語(yǔ)言問(wèn)句進(jìn)行預(yù)處理,比如分詞、去停用詞等,得到實(shí)體,然后根據(jù)分類算法可以獲得問(wèn)題的分類類別,從而找到該類別的查詢模板,接著將實(shí)體填入查詢模板中就可以從知識(shí)....
圖2電影原聲知識(shí)圖譜
接下來(lái)將展示電影原聲的知識(shí)圖譜,如圖2所示,這里將電影原聲作為一個(gè)中心節(jié)點(diǎn),此節(jié)點(diǎn)中包含電影原聲的相關(guān)屬性,例如流派、介質(zhì)、相關(guān)電影、評(píng)分以及歌手等等。從這個(gè)中心節(jié)點(diǎn)也能看到與其他節(jié)點(diǎn)的關(guān)系,例如電影原聲和出版社的關(guān)系是“press”。3答案生成算法
圖3BERT模型
BERT:BERT模型是一個(gè)多層雙向Transformer編碼器,Transformer是一種注意力機(jī)制,可以學(xué)習(xí)到文本中單詞的上下文關(guān)系。Transformer原型包含encoder機(jī)制和decoder機(jī)制,encoder作為輸入接受文本,decoder主要負(fù)責(zé)預(yù)測(cè)結(jié)果。BER....
圖4卷積神經(jīng)網(wǎng)絡(luò)示意圖
卷積神經(jīng)網(wǎng)絡(luò)(convolutionalneuralnetworks,CNN):最初應(yīng)用于圖像處理,并且在圖像處理領(lǐng)域取得了非常好的效果,同時(shí)它可以應(yīng)用在文本分類上面。文本分類主要是準(zhǔn)確無(wú)誤地提取句子或文檔的中心思想,將句子或文檔的關(guān)鍵字作為特征去訓(xùn)練分類器進(jìn)行分類,而CNN....
本文編號(hào):3999053
本文鏈接:http://sikaile.net/wenyilunwen/dianyingdianshilunwen/3999053.html
下一篇:沒(méi)有了