多維度用戶評論情感分析系統(tǒng)的研究與實現(xiàn)
發(fā)布時間:2021-11-26 04:58
互聯(lián)網的蓬勃發(fā)展促進了社交網絡和電子商務的發(fā)展,致使互聯(lián)網產生了大量關于用戶評論信息的數(shù)據(jù),這些文本數(shù)據(jù)中包含著許多有意義和價值的信息。情感分析任務主要是辨別給定文本的情感極性,從而進一步提取和分析文本中所包含的信息。維度級的情感分類作為情感分類的細化任務,主要目的是從文本中提取特定維度的情感極性,該任務近年來已經取得了良好的研究進展。本文設計出一套多維度用戶評論情感分析系統(tǒng),適用于電商平臺的用戶和商家,幫助其直觀、快速、精準地獲取商品信息并進行決策。本系統(tǒng)的最核心部分為多維度用戶評論情感分析模型,本文通過對維度級情感分析方法的研究,設計出一套準確高效的多維度情感分析模型。綜合考慮了維度級情感分析現(xiàn)有研究的優(yōu)勢和缺陷,維度級情感分類任務的關鍵可歸納為三個因素:維度詞語義信息、維度詞和它們上下文文本間的語義相關性,以及相對于維度詞的上下文詞語的位置信息。因此,針對維度級情感分類,本文提出了一種新的算法——AELA-DLSTMs(基于注意力機制和位置信息的DLSTMs模型,Attention-Enabled and Location-Aware DLSTMs)來進行維度級情感分析。AELA...
【文章來源】:北京郵電大學北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:89 頁
【學位級別】:碩士
【部分圖文】:
圖2-7標準循環(huán)神經網絡的重復模塊結構示意圖??
2-7所示。??G??圖2-8?LSTM門結構示意圖??LSTM中提出了一個新的結構叫做記憶細胞(memory?cell),每一個時刻細??胞都會有一個對應的狀態(tài),用來存儲當前時刻的信息。LSTM通過三個門結構(輸??入門,忘記門和輸出門)來保護和控制細胞狀態(tài)。門結構是一種選擇式通過信息??的方法。如圖2-8所示,門結構包含兩部分,神經網絡層sigmoid和點乘操作。??Sigmoid函數(shù)的輸出范圍是[0,1],用來描述每個部分有多少信息允許通過。數(shù)值??0代表不許任何信息通過,數(shù)值1表示著允許任意信息通過。從各個神經元中舍??棄的信息量取決于忘記門,輸入門決定細胞狀態(tài)中什么值將會被更新;诩毎??狀態(tài)
?(2-14)??其中代表輸入門,/t表示忘記門,代表輸出門,辦為細胞狀態(tài)的候選值,??ct為更新后的t時刻的細胞狀態(tài),心為t時刻隱藏狀態(tài)的值。如圖2-9所示,為上??述所說的LSTM重復模塊的內部結構。??2.3.2.4?門控循環(huán)單兀(Gated?Recurrent?Unit)??上節(jié)介紹了?LSTM,GRU作為LSTM的變種,既保持了?LSTM的效果又簡??化了模型的結構,所以GRU也得到了廣泛的應用[6()]。GRU利用一個更新門將??LSTM中的輸入門和忘記門組合在一起。同樣的,GRU還混合了隱藏狀態(tài)和細??胞狀態(tài)。??GRU模型結構如圖2-10所示,GRU包括更新門zt和重置門^。更新門的值??的大小決定了前一時刻進入當前時刻的信息量,更新門的值越大,進入當前時刻??的量越大。重置門的值的大小決定了前一狀態(tài)的信息被當前狀態(tài)忽略的程度,重??置門的值越大,表示被忽略得越少。GRU計算公式如式(2-15)到式(2-19)所??示:??rt?=?a(Wr?■?xt])?(2-15)??zt?=?a(Wz?■?[rt?*?ht_!;?xt])?(2-16)??ht?=?tanh(Wj[?■?+?b〇)?(2-17)??=?(1?—?zt)?*?ht_x?+?zt*ht?(2-18)??yt?=?a(W0?■?ht)?(2-19)??^?"t??}
【參考文獻】:
期刊論文
[1]基于HowNet的詞匯語義傾向計算[J]. 朱嫣嵐,閔錦,周雅倩,黃萱菁,吳立德. 中文信息學報. 2006(01)
本文編號:3519444
【文章來源】:北京郵電大學北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:89 頁
【學位級別】:碩士
【部分圖文】:
圖2-7標準循環(huán)神經網絡的重復模塊結構示意圖??
2-7所示。??G??圖2-8?LSTM門結構示意圖??LSTM中提出了一個新的結構叫做記憶細胞(memory?cell),每一個時刻細??胞都會有一個對應的狀態(tài),用來存儲當前時刻的信息。LSTM通過三個門結構(輸??入門,忘記門和輸出門)來保護和控制細胞狀態(tài)。門結構是一種選擇式通過信息??的方法。如圖2-8所示,門結構包含兩部分,神經網絡層sigmoid和點乘操作。??Sigmoid函數(shù)的輸出范圍是[0,1],用來描述每個部分有多少信息允許通過。數(shù)值??0代表不許任何信息通過,數(shù)值1表示著允許任意信息通過。從各個神經元中舍??棄的信息量取決于忘記門,輸入門決定細胞狀態(tài)中什么值將會被更新;诩毎??狀態(tài)
?(2-14)??其中代表輸入門,/t表示忘記門,代表輸出門,辦為細胞狀態(tài)的候選值,??ct為更新后的t時刻的細胞狀態(tài),心為t時刻隱藏狀態(tài)的值。如圖2-9所示,為上??述所說的LSTM重復模塊的內部結構。??2.3.2.4?門控循環(huán)單兀(Gated?Recurrent?Unit)??上節(jié)介紹了?LSTM,GRU作為LSTM的變種,既保持了?LSTM的效果又簡??化了模型的結構,所以GRU也得到了廣泛的應用[6()]。GRU利用一個更新門將??LSTM中的輸入門和忘記門組合在一起。同樣的,GRU還混合了隱藏狀態(tài)和細??胞狀態(tài)。??GRU模型結構如圖2-10所示,GRU包括更新門zt和重置門^。更新門的值??的大小決定了前一時刻進入當前時刻的信息量,更新門的值越大,進入當前時刻??的量越大。重置門的值的大小決定了前一狀態(tài)的信息被當前狀態(tài)忽略的程度,重??置門的值越大,表示被忽略得越少。GRU計算公式如式(2-15)到式(2-19)所??示:??rt?=?a(Wr?■?xt])?(2-15)??zt?=?a(Wz?■?[rt?*?ht_!;?xt])?(2-16)??ht?=?tanh(Wj[?■?+?b〇)?(2-17)??=?(1?—?zt)?*?ht_x?+?zt*ht?(2-18)??yt?=?a(W0?■?ht)?(2-19)??^?"t??}
【參考文獻】:
期刊論文
[1]基于HowNet的詞匯語義傾向計算[J]. 朱嫣嵐,閔錦,周雅倩,黃萱菁,吳立德. 中文信息學報. 2006(01)
本文編號:3519444
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3519444.html
最近更新
教材專著