天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的虛假評論識別研究

發(fā)布時間:2021-09-29 00:19
  近年來,越來越多的消費者傾向于在網(wǎng)絡(luò)上發(fā)表評論分享自己的消費體驗并在作出消費決策時參考他人的評論意見。然而,一些不良商家通過偽造評論內(nèi)容以達到夸大自身品牌或詆毀競爭對手的目的。虛假評論不僅會對用戶的消費決策產(chǎn)生影響,還會導(dǎo)致商業(yè)競爭環(huán)境的不良發(fā)展。為了有效識別虛假評論,本文利用評論數(shù)據(jù)提取到豐富的語言特征和非語言特征,使用基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的識別模型MFNN(Neural Networks Merging Multivariate Features)開展虛假評論識別研究。本文的研究內(nèi)容歸納為以下三點:(1)構(gòu)建多元特征指標。本文將虛假評論識別的潛在線索劃分為語言特征信息和非語言特征信息,利用評論文本及多種數(shù)據(jù)信息提取了一組多元特征指標集,可以同時適用于基于不同數(shù)據(jù)集開展的虛假評論檢測實驗。(2)進行特征選擇。利用隨機森林和序列后向選擇策略按照特征對于模型性能的重要程度對特征進行修剪,選取具有最佳識別性能的特征子集開展實驗,減少噪聲干擾,提高模型的簡潔性。(3)基于神經(jīng)網(wǎng)絡(luò)構(gòu)建虛假評論識別模型。本文提出融合注意力機制的層次神經(jīng)網(wǎng)絡(luò)模型以挖掘深層的語義信息從而實現(xiàn)虛假評論檢測。同時... 

【文章來源】:內(nèi)蒙古大學內(nèi)蒙古自治區(qū) 211工程院校

【文章頁數(shù)】:60 頁

【學位級別】:碩士

【部分圖文】:

基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的虛假評論識別研究


循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

序列,神經(jīng)網(wǎng)絡(luò),梯度,單元


基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的虛假評論識別研究16圖2.7循環(huán)神經(jīng)網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)Figure2.7InternalStructureofRNNtx表示t時刻的輸入,to表示t時刻的輸出,ts表示t時刻的記憶,則有:1()tttsfUxWs=+(2-5)其中f是非線性的函數(shù),一般使用Relu函數(shù)或是tanh函數(shù)來代替。假設(shè)輸出層to是t時刻的輸出,則有:1()ttoSoftmaxVs=(2-6)2.3.3長短期記憶網(wǎng)絡(luò)長短期記憶網(wǎng)絡(luò)(LongShort-TermMemory,LSTM)[51]是為了處理循環(huán)神經(jīng)網(wǎng)絡(luò)在梯度回傳時由于連續(xù)的乘積而導(dǎo)致的梯度彌散和梯度爆炸的缺陷,利用記憶單元(MemoryCell)結(jié)構(gòu)來選擇循環(huán)神經(jīng)網(wǎng)絡(luò)中歷史信息,能夠在更長的序列中有很好的表現(xiàn),成功解決長期依賴的問題。長短期記憶單元通過特殊的“門”結(jié)構(gòu)來選擇性的去除、保留或增加歷史信息,這三種門結(jié)構(gòu)為輸入門、輸出門和遺忘門,其記憶單元構(gòu)如圖2.8所示。圖2.8長短期記憶單元結(jié)構(gòu)Figure2.8StructureofMemoryCellofLSTM假設(shè)tx表示LSTM在t時刻輸入信息,則可以t時刻輸入門ti,輸出門to和遺忘門tf的更新值:

序列,單元,神經(jīng)網(wǎng)絡(luò),梯度


基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的虛假評論識別研究16圖2.7循環(huán)神經(jīng)網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)Figure2.7InternalStructureofRNNtx表示t時刻的輸入,to表示t時刻的輸出,ts表示t時刻的記憶,則有:1()tttsfUxWs=+(2-5)其中f是非線性的函數(shù),一般使用Relu函數(shù)或是tanh函數(shù)來代替。假設(shè)輸出層to是t時刻的輸出,則有:1()ttoSoftmaxVs=(2-6)2.3.3長短期記憶網(wǎng)絡(luò)長短期記憶網(wǎng)絡(luò)(LongShort-TermMemory,LSTM)[51]是為了處理循環(huán)神經(jīng)網(wǎng)絡(luò)在梯度回傳時由于連續(xù)的乘積而導(dǎo)致的梯度彌散和梯度爆炸的缺陷,利用記憶單元(MemoryCell)結(jié)構(gòu)來選擇循環(huán)神經(jīng)網(wǎng)絡(luò)中歷史信息,能夠在更長的序列中有很好的表現(xiàn),成功解決長期依賴的問題。長短期記憶單元通過特殊的“門”結(jié)構(gòu)來選擇性的去除、保留或增加歷史信息,這三種門結(jié)構(gòu)為輸入門、輸出門和遺忘門,其記憶單元構(gòu)如圖2.8所示。圖2.8長短期記憶單元結(jié)構(gòu)Figure2.8StructureofMemoryCellofLSTM假設(shè)tx表示LSTM在t時刻輸入信息,則可以t時刻輸入門ti,輸出門to和遺忘門tf的更新值:


本文編號:3412822

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3412822.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶2336f***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com