基于深度學(xué)習(xí)的方面級(jí)情感分析研究
發(fā)布時(shí)間:2021-01-20 03:32
隨著社交網(wǎng)絡(luò)與電商平臺(tái)的興起與發(fā)展,越來(lái)越多的人樂(lè)于在線(xiàn)上發(fā)表有關(guān)于購(gòu)物、旅游、服務(wù)等領(lǐng)域的評(píng)論,這些帶有個(gè)人主觀(guān)情感態(tài)度的文本十分具有挖掘價(jià)值。在情感分析領(lǐng)域,文檔級(jí)和句子級(jí)的情感分析只能挖掘整體的情感極性信息,但無(wú)法分析用戶(hù)對(duì)于文本中各個(gè)實(shí)體或?qū)傩缘那楦屑耙庖?jiàn),因此方面級(jí)情感分析應(yīng)運(yùn)而生,其中方面可為實(shí)體或?qū)傩。近幾年深度學(xué)習(xí)的發(fā)展與廣泛運(yùn)用,也為方面級(jí)情感分析任務(wù)提供了新的解決方法。本文主要關(guān)注基于深度學(xué)習(xí)的方面級(jí)情感分析問(wèn)題,針對(duì)該研究?jī)?nèi)容現(xiàn)存的一些問(wèn)題,嘗試提出高效的解決方案。首先,目前的方面級(jí)情感分類(lèi)模型大都基于整個(gè)句子進(jìn)行預(yù)測(cè),而這會(huì)引入與方面情感無(wú)關(guān)的上下文噪音信息。針對(duì)這一問(wèn)題,本文提出了一個(gè)基于強(qiáng)化學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型來(lái)自適應(yīng)地抽取與方面相關(guān)的描述片段,并基于該片段完成后續(xù)的情感分類(lèi)任務(wù)。實(shí)驗(yàn)結(jié)果表明,本文所提方法可以有效地提取描述該方面的片段,從而實(shí)現(xiàn)情感分類(lèi)性能的提高。此外,通過(guò)案例分析,可以直觀(guān)地解釋為什么本文所提模型會(huì)適用于方面級(jí)情感分類(lèi)。其次,針對(duì)目前的方面級(jí)情感分析模型在建模過(guò)程中沒(méi)有很好地利用方面抽取、情感詞抽取和方面級(jí)情感分類(lèi)三個(gè)子任務(wù)之間的關(guān)系這一問(wèn)...
【文章來(lái)源】:華東師范大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:95 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.2雙層感知器結(jié)構(gòu)
按時(shí)序展開(kāi)的RNN結(jié)構(gòu)
華東師范大學(xué)碩士學(xué)位論文圖2.4RNN和LSTM結(jié)構(gòu)細(xì)節(jié)ot表示輸入門(mén)、遺忘門(mén)和輸出門(mén),ct為當(dāng)前細(xì)胞狀態(tài),⊙為點(diǎn)乘運(yùn)算。it=σ(Wi·[ht1,xt]+bi)ft=σ(Wf·[ht1,xt]+bf)ot=σ(Wo·[ht1,xt]+bo)gt=tanh(Wr·[ht1,xt]+br)ct=it⊙gt+ft⊙ct1ht=ot⊙tanh(ct)(2.9)為了編碼從后往前的信息,Graves等人[48]又提出了雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)Bi-LSTM(Bi-directionalLSTM)。Bi-LSTM通過(guò)拼接位置t的前向隱狀態(tài)→ht和后向隱狀態(tài)←ht來(lái)表示該位置的信息表征,即ht=[→ht;←ht]。相較LSTM,Bi-LSTM能夠更好地捕獲雙向的語(yǔ)義依賴(lài)。本文主要關(guān)注基于深度學(xué)習(xí)的方面級(jí)情感分析算法,因此所提的算法模型都將以神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為基礎(chǔ),在學(xué)習(xí)序列表示時(shí)主要采用循環(huán)神經(jīng)網(wǎng)絡(luò),進(jìn)行分類(lèi)時(shí)采用全連接神經(jīng)網(wǎng)絡(luò)。16
本文編號(hào):2988285
【文章來(lái)源】:華東師范大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:95 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.2雙層感知器結(jié)構(gòu)
按時(shí)序展開(kāi)的RNN結(jié)構(gòu)
華東師范大學(xué)碩士學(xué)位論文圖2.4RNN和LSTM結(jié)構(gòu)細(xì)節(jié)ot表示輸入門(mén)、遺忘門(mén)和輸出門(mén),ct為當(dāng)前細(xì)胞狀態(tài),⊙為點(diǎn)乘運(yùn)算。it=σ(Wi·[ht1,xt]+bi)ft=σ(Wf·[ht1,xt]+bf)ot=σ(Wo·[ht1,xt]+bo)gt=tanh(Wr·[ht1,xt]+br)ct=it⊙gt+ft⊙ct1ht=ot⊙tanh(ct)(2.9)為了編碼從后往前的信息,Graves等人[48]又提出了雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)Bi-LSTM(Bi-directionalLSTM)。Bi-LSTM通過(guò)拼接位置t的前向隱狀態(tài)→ht和后向隱狀態(tài)←ht來(lái)表示該位置的信息表征,即ht=[→ht;←ht]。相較LSTM,Bi-LSTM能夠更好地捕獲雙向的語(yǔ)義依賴(lài)。本文主要關(guān)注基于深度學(xué)習(xí)的方面級(jí)情感分析算法,因此所提的算法模型都將以神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為基礎(chǔ),在學(xué)習(xí)序列表示時(shí)主要采用循環(huán)神經(jīng)網(wǎng)絡(luò),進(jìn)行分類(lèi)時(shí)采用全連接神經(jīng)網(wǎng)絡(luò)。16
本文編號(hào):2988285
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/2988285.html
最近更新
教材專(zhuān)著