基于注意力機制的方面級別情感分類算法研究
發(fā)布時間:2021-07-04 10:17
方面級別情感分類的目的是識別一個句子關(guān)于給定方面所表達出來的情感極性。目前,基于注意力機制的深度學(xué)習(xí)算法已經(jīng)成為解決該任務(wù)的主流方法之一。本文在對現(xiàn)有基于注意力機制的方面級別情感分類算法的設(shè)計思路和建模機制進行深入分析后,發(fā)現(xiàn)這些方法存在以下幾點不足之處:首先,在方面級別情感分類領(lǐng)域采用的注意力機制,通常只構(gòu)建一個記憶矩陣,從而無法同時利用到句子中潛在的詞級別特征和短語級別特征。其次,現(xiàn)有工作中的注意力機制在計算注意力權(quán)重時,通常只考慮到了部分句子信息,缺乏對句子整體環(huán)境的考慮。最后,現(xiàn)有工作中常用的位置注意力機制的基本假設(shè)存在不合理之處。針對上述問題進行研究,本文提出兩個相應(yīng)的算法。第一個算法引入雙重記憶矩陣實現(xiàn)對兩種類型特征的利用。第二個算法則提出了兩種新奇的注意力機制分別來解決后面兩個問題。本文的主要貢獻如下:1.提出一個基于雙重記憶注意力機制的方面級別情感分類算法。該算法基于RNN Encoder-Decoder構(gòu)建,在記憶模塊中包含了詞級別和短語級別記憶矩陣。解碼器擁有多個計算層,每個計算層由注意力層和門限循環(huán)單元組成,用來捕獲并整合與給定方面的情感極性相關(guān)的重要信息。另外,...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:94 頁
【學(xué)位級別】:碩士
【部分圖文】:
端到端記憶網(wǎng)絡(luò)的單層和多層版本[41]
圖 2-2 深度記憶網(wǎng)絡(luò)示意圖[34]級別情感分類領(lǐng)域,Tang 等人提出了深層記憶網(wǎng)絡(luò) Mem[34]。圖 2-2 給出 MemNet 的模型示意圖。對于輸入句子{s 輸入模塊首先將其劃分為兩個部分:上下文部分1 1{ , , i w w { }iw (為了便于說明,這里假設(shè)方面只有一個詞)。對于上其中的每個詞映射為對應(yīng)的詞向量,并將這些向量堆疊起矩陣d ( n 1)m 。對于方面,同樣將其轉(zhuǎn)化為對應(yīng)的向量et 的輸出模塊是一個多計算層模型,每一個計算層由一個注成。輸出模塊在產(chǎn)生輸出向量的過程中,不斷從記憶矩陣第一層,以方面表示aspectv 作為輸入,注意力層基于方面表應(yīng)選擇重要的信息,與此同時,線性層對輸入的方面表示后,將注意力層和線性層的輸出進行加和,結(jié)果作為第一個計算層則以前一個計算層的輸出作為輸入,并執(zhí)行與前后續(xù)的計算層亦是如此。在經(jīng)過多個計算層的處理后,得
3 基于注意力機制的機器翻譯模型示域中,Bahdanau 等人首先將注先前的基于編碼器-解碼器結(jié)構(gòu)的為固定長度的向量,這種行為將時將使模型難以有效處理較長的(注意力模型),如圖 2-3 所示, , }T x中檢索出一組與它最相關(guān)先前已經(jīng)生成的目標(biāo)詞來預(yù)測當(dāng)來達到的。在圖中t ,i 表示在生成配的注意力權(quán)重,通過權(quán)重的數(shù)2-5)給出t ,i 的計算方式。, 1( , )t i t ie a sh ,,exp( )t it iTe
【參考文獻】:
期刊論文
[1]文本意見挖掘綜述[J]. 姚天昉,程希文,徐飛玉,漢思·烏思克爾特,王睿. 中文信息學(xué)報. 2008(03)
本文編號:3264605
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:94 頁
【學(xué)位級別】:碩士
【部分圖文】:
端到端記憶網(wǎng)絡(luò)的單層和多層版本[41]
圖 2-2 深度記憶網(wǎng)絡(luò)示意圖[34]級別情感分類領(lǐng)域,Tang 等人提出了深層記憶網(wǎng)絡(luò) Mem[34]。圖 2-2 給出 MemNet 的模型示意圖。對于輸入句子{s 輸入模塊首先將其劃分為兩個部分:上下文部分1 1{ , , i w w { }iw (為了便于說明,這里假設(shè)方面只有一個詞)。對于上其中的每個詞映射為對應(yīng)的詞向量,并將這些向量堆疊起矩陣d ( n 1)m 。對于方面,同樣將其轉(zhuǎn)化為對應(yīng)的向量et 的輸出模塊是一個多計算層模型,每一個計算層由一個注成。輸出模塊在產(chǎn)生輸出向量的過程中,不斷從記憶矩陣第一層,以方面表示aspectv 作為輸入,注意力層基于方面表應(yīng)選擇重要的信息,與此同時,線性層對輸入的方面表示后,將注意力層和線性層的輸出進行加和,結(jié)果作為第一個計算層則以前一個計算層的輸出作為輸入,并執(zhí)行與前后續(xù)的計算層亦是如此。在經(jīng)過多個計算層的處理后,得
3 基于注意力機制的機器翻譯模型示域中,Bahdanau 等人首先將注先前的基于編碼器-解碼器結(jié)構(gòu)的為固定長度的向量,這種行為將時將使模型難以有效處理較長的(注意力模型),如圖 2-3 所示, , }T x中檢索出一組與它最相關(guān)先前已經(jīng)生成的目標(biāo)詞來預(yù)測當(dāng)來達到的。在圖中t ,i 表示在生成配的注意力權(quán)重,通過權(quán)重的數(shù)2-5)給出t ,i 的計算方式。, 1( , )t i t ie a sh ,,exp( )t it iTe
【參考文獻】:
期刊論文
[1]文本意見挖掘綜述[J]. 姚天昉,程希文,徐飛玉,漢思·烏思克爾特,王睿. 中文信息學(xué)報. 2008(03)
本文編號:3264605
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3264605.html
最近更新
教材專著