基于深度學(xué)習(xí)的電商評(píng)論情感分析系統(tǒng)
【文章頁(yè)數(shù)】:93 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2–1感知器結(jié)構(gòu)[13]
第二章相關(guān)技術(shù)研究上海交通大學(xué)碩士學(xué)位論文圖2–1感知器結(jié)構(gòu)[13]Figure2–1TheStructureofPerceptron程,通過(guò)激活函數(shù)(ActivationFunction)將線性權(quán)重加和的結(jié)果進(jìn)一步處理,并得到輸出。感受器最終的輸出結(jié)果可以表示為式2–2。z=w....
圖2–2神經(jīng)網(wǎng)絡(luò)架構(gòu)[15]
上海交通大學(xué)碩士學(xué)位論文第二章相關(guān)技術(shù)研究圖2–2神經(jīng)網(wǎng)絡(luò)架構(gòu)[15]Figure2–2TheStructureofNeuralNetworks2.1.2模型訓(xùn)練模型的好與壞由模型在數(shù)據(jù)集上的擬合程度決定,通過(guò)學(xué)習(xí)大量已知數(shù)據(jù)不斷修正自身,最終使得模型能夠擬合整個(gè)數(shù)據(jù)集的過(guò)程就是....
圖2–3梯度下降算法原理
第二章相關(guān)技術(shù)研究上海交通大學(xué)碩士學(xué)位論文圖2–3梯度下降算法原理Figure2–3PrincipleofGradientDescentAlgorithm隨著在樣本數(shù)據(jù)上不斷迭代更新各個(gè)權(quán)重,直到損失函數(shù)在某個(gè)極小值上收斂,就可以視為神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練完成。輸入信息隨著每一層的函數(shù)....
圖2–4基于卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行評(píng)論情感分析
上海交通大學(xué)碩士學(xué)位論文第二章相關(guān)技術(shù)研究通,這樣極大的減少了神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中的計(jì)算量,同時(shí),局部特征相較全局特征可以更好的描述事物的本質(zhì),故卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效果通常比傳統(tǒng)神經(jīng)網(wǎng)的效果好。基于卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行商品評(píng)論情感分析[18]的原理如圖2–4所示,該網(wǎng)絡(luò)大致分為三個(gè)部....
本文編號(hào):3921384
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3921384.html