基于深度學習的智能化資源推薦方法研究
發(fā)布時間:2020-12-12 02:00
現(xiàn)如今,人們生活在一個信息爆炸的時代。對于信息消費者來說,他們需要消耗大量的精力和時間來篩選自己感興趣的信息,而對于信息生產(chǎn)者來說,他們需要考慮如何智能化地向用戶推薦其感興趣的信息。為了解決這一問題,推薦技術應運而生。根據(jù)推薦算法的不同,推薦系統(tǒng)可以分成基于內(nèi)容推薦、協(xié)同過濾推薦、混合推薦等等。其中,協(xié)同過濾推薦是目前運用最廣的推薦算法。但是,由于傳統(tǒng)推薦技術的局限性,推薦系統(tǒng)往往存在著數(shù)據(jù)稀疏性、精度低等問題。深度學習的興起,為推薦系統(tǒng)領域提供了新思路。在傳統(tǒng)推薦技術的基礎上,引入深度學習,將更好地解決推薦系統(tǒng)所存在的問題,進一步提高精度。本課題針對推薦系統(tǒng)和深度學習進行了相關的調(diào)查、研究、實驗和分析,提出了一種基于深度學習的智能化資源推薦模型,卷積長短期矩陣分解模型(CnnLstmMF),方法步驟如下:(1)傳統(tǒng)的推薦系統(tǒng)往往使用簡單的用戶行為數(shù)據(jù),如評分數(shù)據(jù)。而相對于評分數(shù)據(jù),評論數(shù)據(jù)更能反應出用戶的真實情感和對某個項目偏愛的具體原因,具有很高的應用價值。因此本課題在采用用戶對項目的評分數(shù)據(jù)的同時,還引入了輔助行為數(shù)據(jù),即用戶對項目的評論數(shù)據(jù)。(2)由于傳統(tǒng)文本表示方法詞袋(Ba...
【文章來源】:福州大學福建省 211工程院校
【文章頁數(shù)】:66 頁
【學位級別】:碩士
【部分圖文】:
圖1-1?Amazon推薦商品??
卷積階段主要通過提取信息的不同特征,實現(xiàn)對輸入信息的特定模式的觀測。??觀察模式又稱卷積核,每個卷積核將檢測每一個輸入特征圖上的所有特征,實現(xiàn)??權值共享[43】。??非線性變換階段則是對卷積階段得到的特征按照一定的規(guī)則進行篩選,篩選??規(guī)則一般采用非線性變換的方式,從而避免線性模型難以描述、表達能力不夠等??問題。非線性階段將卷積階段所提取的特征作為輸入,進行非線性映射y?=?/〇)。??傳統(tǒng)的卷積網(wǎng)絡采用Sigmoid、Tanh等飽和非線性函數(shù)進行非線性變換,近幾年??多采用不飽和非線性函數(shù)(Rectified?Linear?Units,ReLU)進行操作。相比于傳??統(tǒng)的飽和非線性函數(shù),ReLU在訓練梯度下降時具有更快的收斂速度。??(1)?Sigmoid函數(shù)公式表示如下:??y=lT7^?公式(3-1〇)??Sigmoid函數(shù),曾被廣泛地應用在神經(jīng)網(wǎng)絡中。該函數(shù)具有如下特性:當x趨??,0;x正,近1;x?=?0,=?0.5;??
WjX/IjX/Ij?1?2?3??圖3-2單層卷積神經(jīng)網(wǎng)絡的階段結(jié)構圖??卷積階段主要通過提取信息的不同特征,實現(xiàn)對輸入信息的特定模式的觀測。??觀察模式又稱卷積核,每個卷積核將檢測每一個輸入特征圖上的所有特征,實現(xiàn)??權值共享[43】。??非線性變換階段則是對卷積階段得到的特征按照一定的規(guī)則進行篩選,篩選??規(guī)則一般采用非線性變換的方式,從而避免線性模型難以描述、表達能力不夠等??問題。非線性階段將卷積階段所提取的特征作為輸入,進行非線性映射y?=?/〇)。??傳統(tǒng)的卷積網(wǎng)絡采用Sigmoid、Tanh等飽和非線性函數(shù)進行非線性變換,近幾年??多采用不飽和非線性函數(shù)(Rectified?Linear?Units,ReLU)進行操作。相比于傳??統(tǒng)的飽和非線性函數(shù)
本文編號:2911644
【文章來源】:福州大學福建省 211工程院校
【文章頁數(shù)】:66 頁
【學位級別】:碩士
【部分圖文】:
圖1-1?Amazon推薦商品??
卷積階段主要通過提取信息的不同特征,實現(xiàn)對輸入信息的特定模式的觀測。??觀察模式又稱卷積核,每個卷積核將檢測每一個輸入特征圖上的所有特征,實現(xiàn)??權值共享[43】。??非線性變換階段則是對卷積階段得到的特征按照一定的規(guī)則進行篩選,篩選??規(guī)則一般采用非線性變換的方式,從而避免線性模型難以描述、表達能力不夠等??問題。非線性階段將卷積階段所提取的特征作為輸入,進行非線性映射y?=?/〇)。??傳統(tǒng)的卷積網(wǎng)絡采用Sigmoid、Tanh等飽和非線性函數(shù)進行非線性變換,近幾年??多采用不飽和非線性函數(shù)(Rectified?Linear?Units,ReLU)進行操作。相比于傳??統(tǒng)的飽和非線性函數(shù),ReLU在訓練梯度下降時具有更快的收斂速度。??(1)?Sigmoid函數(shù)公式表示如下:??y=lT7^?公式(3-1〇)??Sigmoid函數(shù),曾被廣泛地應用在神經(jīng)網(wǎng)絡中。該函數(shù)具有如下特性:當x趨??,0;x正,近1;x?=?0,=?0.5;??
WjX/IjX/Ij?1?2?3??圖3-2單層卷積神經(jīng)網(wǎng)絡的階段結(jié)構圖??卷積階段主要通過提取信息的不同特征,實現(xiàn)對輸入信息的特定模式的觀測。??觀察模式又稱卷積核,每個卷積核將檢測每一個輸入特征圖上的所有特征,實現(xiàn)??權值共享[43】。??非線性變換階段則是對卷積階段得到的特征按照一定的規(guī)則進行篩選,篩選??規(guī)則一般采用非線性變換的方式,從而避免線性模型難以描述、表達能力不夠等??問題。非線性階段將卷積階段所提取的特征作為輸入,進行非線性映射y?=?/〇)。??傳統(tǒng)的卷積網(wǎng)絡采用Sigmoid、Tanh等飽和非線性函數(shù)進行非線性變換,近幾年??多采用不飽和非線性函數(shù)(Rectified?Linear?Units,ReLU)進行操作。相比于傳??統(tǒng)的飽和非線性函數(shù)
本文編號:2911644
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2911644.html
最近更新
教材專著