天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于深度學(xué)習(xí)算法的評(píng)論情感分析研究

發(fā)布時(shí)間:2021-08-28 12:01
  隨著互聯(lián)網(wǎng)技術(shù)的進(jìn)步,社交媒體、電子商務(wù)蓬勃發(fā)展,越來越多的商品交易評(píng)論和社交評(píng)論出現(xiàn)在互聯(lián)網(wǎng)中。因此,網(wǎng)絡(luò)中的各種評(píng)論文本迅速膨脹。若依靠人工的方法難以對(duì)網(wǎng)上海量的信息進(jìn)行收集和處理,因此需要進(jìn)行文本分析從而幫助用戶快速從數(shù)以億計(jì)的評(píng)論中獲取重要信息,情感分析技術(shù)應(yīng)運(yùn)而生。基于詞典法構(gòu)建一個(gè)高質(zhì)量詞典需要大量的人力,機(jī)器學(xué)習(xí)方法過分依賴語句向量的特征,這些特征來自于人工選擇導(dǎo)致選擇不同的特征就會(huì)有不同分析結(jié)果。深度學(xué)習(xí)方法作為一種自主學(xué)習(xí)的分類方法,在不需要人工過多干預(yù)的條件下就可以在情感分析任務(wù)上取得較好結(jié)果。因此基于深度學(xué)習(xí)的自然語言分析成為了當(dāng)前的研究熱點(diǎn)。針對(duì)傳統(tǒng)文本情感分析方法正確率低,深度學(xué)習(xí)方法在訓(xùn)練、測(cè)試與分析效率低的缺陷,本文深入研究了基于深度學(xué)習(xí)的評(píng)論情感分析技術(shù),把主成分分析法(PCA)的高效文本分類(Fasttext)方法作為文本向量生成算法,提高生成文本向量的質(zhì)量。把門控循環(huán)神經(jīng)網(wǎng)絡(luò)(GRU)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)合,建立了Attention-CNN-GRU評(píng)論文本情感分析模型,提高情感分析結(jié)果的正確率和模型訓(xùn)練效率。具體研究內(nèi)容如下。為了提高文字轉(zhuǎn)換后... 

【文章來源】:南京信息工程大學(xué)江蘇省

【文章頁數(shù)】:83 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)算法的評(píng)論情感分析研究


訓(xùn)練測(cè)試時(shí)間比較柱狀圖

學(xué)習(xí)率,數(shù)據(jù)集


高效達(dá)到最低點(diǎn)權(quán)重值(wi)0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.90.1圖 5.1 梯度下降算法學(xué)習(xí)率原理學(xué)習(xí)率的選擇是純粹的超參問題,實(shí)際上本質(zhì)也就是不斷嘗試,不過你如果函數(shù)的梯度較小,你可以放心的試著采用更大的學(xué)習(xí)速率,已補(bǔ)償較小的梯更大的步長。根據(jù)數(shù)據(jù)集的大小來選擇合適的學(xué)習(xí)率,當(dāng)使用平方誤差和作數(shù)時(shí),隨著數(shù)據(jù)量的增多,學(xué)習(xí)率應(yīng)該被設(shè)置為相應(yīng)更小的值。另一種方法不受數(shù)據(jù)集大小影響的成本函數(shù)-均值平方差函數(shù)。所選用數(shù)據(jù)量比較大所應(yīng)更小的值,從一般常用值:0.00001,0.0001,0.0003,0.001,0.003,,0.1,0.3,1,3,10 中選取最小的 3 個(gè)進(jìn)行試驗(yàn)對(duì)比的選擇。學(xué)習(xí)率對(duì)比選擇試驗(yàn)通過選擇 JD01 數(shù)據(jù)作為交叉驗(yàn)證的數(shù)據(jù)集,通過學(xué)習(xí)換得出每一次正確率的結(jié)果,最終分析出最適合的學(xué)習(xí)率。

系數(shù),模型,樣本,神經(jīng)網(wǎng)絡(luò)模型


圖 5.4 CNN-GRU(Fasttext)模型棄權(quán)系數(shù)對(duì)比選擇圖在保持其它確定參數(shù)不變的情況下,通過不同棄權(quán)系數(shù)對(duì)比實(shí)驗(yàn)結(jié)果如圖。模型棄權(quán)系數(shù)取 0.5 時(shí)深度學(xué)習(xí)模型正確率達(dá)到最大值,其中棄權(quán)系數(shù)取確率最低,說明保留神經(jīng)單元如果過少的話會(huì)對(duì)訓(xùn)練結(jié)果產(chǎn)生負(fù)面影響。最模型棄權(quán)系數(shù)取 0.5。.2 批尺寸系數(shù)比較LSTM 類及 GRU 神經(jīng)網(wǎng)絡(luò)單元而言由于 LSTM 類及 GRU 神經(jīng)網(wǎng)絡(luò)模型的輸入是的樣本數(shù)目窗口,批尺寸就代表這個(gè)窗口的輸入樣本數(shù)。首先選取批尺寸個(gè)一個(gè) Batch 作為輸入,得到輸出結(jié)果后與樣本標(biāo)簽利用損失函數(shù)計(jì)算損失,算法更新權(quán)重和偏向,這個(gè)過程就是神經(jīng)網(wǎng)絡(luò)訓(xùn)練的一次迭代每次迭代得到作為下次迭代的初始值。如訓(xùn)練集有樣本 1000 條,Batchsize 設(shè)為 10,每練 10 條樣本。LSTM 類及 GRU 神經(jīng)網(wǎng)絡(luò)模型在獲取前后依賴信息特征的處理

【參考文獻(xiàn)】:
期刊論文
[1]一種基于Word2Vec的訓(xùn)練效果優(yōu)化策略研究[J]. 王飛,譚新.  計(jì)算機(jī)應(yīng)用與軟件. 2018(01)
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)攻擊檢測(cè)方法研究[J]. 夏玉明,胡紹勇,朱少民,劉麗麗.  信息網(wǎng)絡(luò)安全. 2017(11)
[3]基于語義相似度的情感特征向量提取方法[J]. 林江豪,周詠梅,陽愛民,陳錦.  計(jì)算機(jī)科學(xué). 2017(10)
[4]基于趨勢(shì)特征表示的shapelet分類方法[J]. 閆欣鳴,孟凡榮,閆秋艷.  計(jì)算機(jī)應(yīng)用. 2017(08)
[5]基于改進(jìn)鄰域粒的模糊熵特征選擇算法[J]. 姚晟,徐風(fēng),趙鵬,劉政怡,陳菊.  南京大學(xué)學(xué)報(bào)(自然科學(xué)). 2017(04)
[6]用于文本分類的局部化雙向長短時(shí)記憶[J]. 萬圣賢,蘭艷艷,郭嘉豐,徐君,龐亮,程學(xué)旗.  中文信息學(xué)報(bào). 2017(03)
[7]基于門循環(huán)單元神經(jīng)網(wǎng)絡(luò)的中文分詞法[J]. 李雪蓮,段鴻,許牧.  廈門大學(xué)學(xué)報(bào)(自然科學(xué)版). 2017(02)
[8]基于深度表示學(xué)習(xí)和高斯過程遷移學(xué)習(xí)的情感分析方法[J]. 吳冬茵,桂林,陳釗,徐睿峰.  中文信息學(xué)報(bào). 2017(01)
[9]基于卷積神經(jīng)網(wǎng)絡(luò)的中文微博觀點(diǎn)分類[J]. 廖祥文,張麗瑤,宋志剛,程學(xué)旗,陳國龍.  模式識(shí)別與人工智能. 2016(12)
[10]融合詞向量的多特征句子相似度計(jì)算方法研究[J]. 李峰,侯加英,曾榮仁,凌晨.  計(jì)算機(jī)科學(xué)與探索. 2017(04)



本文編號(hào):3368475

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/3368475.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶26a8a***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com