基于社交網(wǎng)絡(luò)的事件屬性與發(fā)展趨勢分析
發(fā)布時(shí)間:2021-07-28 03:03
隨著社交網(wǎng)絡(luò)和智能終端的快速普及,人們通過社交網(wǎng)絡(luò)不僅了解到世界各地的新聞事件,也對(duì)當(dāng)下熱門的話題和事件發(fā)表自己的看法和觀點(diǎn)。收集和研究這些意見和觀點(diǎn)可以為了解社會(huì)趨勢和輿論導(dǎo)向提供一個(gè)有效的窗口和視角。而基于社交網(wǎng)絡(luò)的事件預(yù)測便是通過對(duì)社交網(wǎng)絡(luò)中大量的用戶生成內(nèi)容進(jìn)行分析,預(yù)測事件的發(fā)展趨勢和輿論的導(dǎo)向,從而為決策制定和社會(huì)管理提供一定的幫助和支持。但是由于社交網(wǎng)絡(luò)的動(dòng)態(tài)變化的特性,事件和熱門話題也在不斷變化,導(dǎo)致事件預(yù)測效果不佳。同時(shí)由于智能設(shè)備的普及,在社交網(wǎng)絡(luò)中人們可以不僅通過文字信息進(jìn)行分享和交流,也發(fā)表圖片、視頻等多媒體信息,使得社交網(wǎng)絡(luò)包含多種不同類型的數(shù)據(jù)。通過對(duì)社交網(wǎng)絡(luò)中的用戶生成內(nèi)容的分析和挖掘,可以預(yù)測事件背后的輿論導(dǎo)向并推斷用戶的地理位置。社交網(wǎng)絡(luò)的動(dòng)態(tài)特性導(dǎo)致現(xiàn)有的靜態(tài)預(yù)測模型難以分析新事件帶來的變化,但對(duì)新數(shù)據(jù)的標(biāo)注需要人力和時(shí)間的投入,使得現(xiàn)有方法難以將新的數(shù)據(jù)引入模型的學(xué)習(xí)過程中,導(dǎo)致預(yù)測效果下降。而社交網(wǎng)絡(luò)數(shù)據(jù)類型的多樣性,內(nèi)容的不規(guī)則性使得基于單一類型信息的地理位置推斷模型的穩(wěn)定性和準(zhǔn)確性都難以保證。本文針對(duì)以上兩個(gè)問題展開研究,主要工作和貢獻(xiàn)如下:...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:73 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
AlexNet模型的結(jié)構(gòu)簡介[60]
電子科技大學(xué)碩士學(xué)位論文Unit),它可以解決梯度彌散問題。如圖2-3所示,ReLU在x>0時(shí)導(dǎo)數(shù)一直是1,求梯度非常簡單,計(jì)算起來也很快。ReLU解決了激活函數(shù)的導(dǎo)數(shù)問題,所以有助于緩解梯度消失,也能解決梯度爆炸,從而加快訓(xùn)練速度。圖2-3三種常見的激活函數(shù)因?yàn)槿B接層容易過擬合,而卷積層不容易過擬合,,AlexNet最后2個(gè)全連接層中使用了Dropout方法。在每次迭代時(shí),根據(jù)預(yù)設(shè)的概率p讓某個(gè)神經(jīng)元的暫時(shí)停止工作,但保持輸入層與輸出層神經(jīng)元的個(gè)數(shù)不變,只更新被保留下來的的神經(jīng)元參數(shù)。那么,每次迭代生成的網(wǎng)絡(luò)結(jié)構(gòu)會(huì)因?yàn)殡S機(jī)失活的神經(jīng)元不同而產(chǎn)生變化,使得模型泛化能力更強(qiáng),避免模型過度依賴某些局部特征,從而有效地減少過擬合。圖2-4給出了一個(gè)Dropout的示例。圖2-4標(biāo)準(zhǔn)網(wǎng)絡(luò)與Dropout以后的網(wǎng)絡(luò)12
標(biāo)準(zhǔn)網(wǎng)絡(luò)與Dropout以后的網(wǎng)絡(luò)
本文編號(hào):3307072
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:73 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
AlexNet模型的結(jié)構(gòu)簡介[60]
電子科技大學(xué)碩士學(xué)位論文Unit),它可以解決梯度彌散問題。如圖2-3所示,ReLU在x>0時(shí)導(dǎo)數(shù)一直是1,求梯度非常簡單,計(jì)算起來也很快。ReLU解決了激活函數(shù)的導(dǎo)數(shù)問題,所以有助于緩解梯度消失,也能解決梯度爆炸,從而加快訓(xùn)練速度。圖2-3三種常見的激活函數(shù)因?yàn)槿B接層容易過擬合,而卷積層不容易過擬合,,AlexNet最后2個(gè)全連接層中使用了Dropout方法。在每次迭代時(shí),根據(jù)預(yù)設(shè)的概率p讓某個(gè)神經(jīng)元的暫時(shí)停止工作,但保持輸入層與輸出層神經(jīng)元的個(gè)數(shù)不變,只更新被保留下來的的神經(jīng)元參數(shù)。那么,每次迭代生成的網(wǎng)絡(luò)結(jié)構(gòu)會(huì)因?yàn)殡S機(jī)失活的神經(jīng)元不同而產(chǎn)生變化,使得模型泛化能力更強(qiáng),避免模型過度依賴某些局部特征,從而有效地減少過擬合。圖2-4給出了一個(gè)Dropout的示例。圖2-4標(biāo)準(zhǔn)網(wǎng)絡(luò)與Dropout以后的網(wǎng)絡(luò)12
標(biāo)準(zhǔn)網(wǎng)絡(luò)與Dropout以后的網(wǎng)絡(luò)
本文編號(hào):3307072
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3307072.html
最近更新
教材專著