基于深度神經(jīng)網(wǎng)絡(luò)的個性化商品推薦研究
發(fā)布時間:2021-08-17 23:21
隨著用戶和商品內(nèi)容的快速增長,導致用戶越來越難憑借手動搜索或逐一查看的方式獲得自己感興趣的商品,為了提升用戶的消費體驗和效率,互聯(lián)網(wǎng)平臺利用推薦系統(tǒng)幫助用戶在選購商品時提供參考,借助推薦算法挖掘出用戶最可能喜歡的商品進行推送。但傳統(tǒng)的推薦算法在面對歷史交互數(shù)據(jù)稀疏或新商品推薦的情形時都存在明顯的不足,在推薦領(lǐng)域使用深度神經(jīng)網(wǎng)絡(luò)的方法可以有效的解決以上問題。本文將基于潛在特征的模型與深度神經(jīng)網(wǎng)絡(luò)有效結(jié)合在一起,提出了兩種混合推薦算法,能夠同時從商品內(nèi)容信息和歷史交互信息中挖掘特征,分別應(yīng)用于不同生命周期的商品推薦。最后根據(jù)商品特點構(gòu)建了基于深度神經(jīng)網(wǎng)絡(luò)的推薦框架,為不同的商品匹配合適的算法,提升推薦的準確性。本文的主要工作包括:(1)詳細分析了傳統(tǒng)推薦算法結(jié)合深度學習技術(shù)的發(fā)展歷程和研究現(xiàn)狀,提出了目前研究中存在的不足,給出了造成這些不足的原因并給出解決的思路。將本論文中所涉及到的相關(guān)理論基礎(chǔ)進行介紹,分別對協(xié)同過濾算法、基于內(nèi)容的推薦和深度神經(jīng)網(wǎng)絡(luò)的基本思想、理論背景和實際應(yīng)用中適用情況展開介紹。(2)新商品缺乏歷史交互數(shù)據(jù),通過引入圖像數(shù)據(jù)并利用卷積神經(jīng)網(wǎng)絡(luò)從中提取商品視覺內(nèi)容特征作...
【文章來源】:合肥工業(yè)大學安徽省 211工程院校 教育部直屬院校
【文章頁數(shù)】:67 頁
【學位級別】:碩士
【部分圖文】:
基于內(nèi)容的推薦主要內(nèi)容
第二章 相關(guān)理論基礎(chǔ)力機制的長短期記憶神經(jīng)網(wǎng)絡(luò)絡(luò)一般用以解決分類問題或特征提取問題,它現(xiàn)實中的很多數(shù)據(jù)不滿足這一條件,如文本這一個重要的特點,即前后數(shù)據(jù)存在關(guān)系,而卷積掘出上下文交互信息。循環(huán)神經(jīng)網(wǎng)絡(luò)專門用以列和空間序列關(guān)系[35,36]。如圖 2.4 所示,這是一側(cè)將左側(cè)結(jié)構(gòu)進行展開,圖中的箭頭表示數(shù)據(jù) y 是樣本的標簽,L 是損失函數(shù),o 代表輸出, t 表示 t 時刻的狀態(tài)。循環(huán)神經(jīng)網(wǎng)絡(luò)最大的特連接,通過這種鏈式結(jié)構(gòu)和記憶方式,前面的節(jié)響作用不斷累積和記憶,可以很好的挖掘出文
圖 2.7 改進后的 Encoder-Decoder 模型Fig 2.7 Improved Encoder-Decoder model量 vi的計算過程體現(xiàn)了注意機制的思想似度,該相似度代表了注意力的權(quán)重,是改進了上下文向量的計算方法,但相似經(jīng)網(wǎng)絡(luò)在處理數(shù)據(jù)時能夠?qū)⒆⒁饬行g(shù)加入了基于注意力的機制,取得了不基礎(chǔ)上 LSTM 加入了門限的結(jié)構(gòu)讓整個相關(guān)信息,克服了 RNN 的不足,并加入因此本文嘗試將這一方法應(yīng)用于推薦領(lǐng)域及到的一些關(guān)鍵技術(shù)。首先描述了核心狀等內(nèi)容,針對協(xié)同過濾算法和基于內(nèi)容
本文編號:3348706
【文章來源】:合肥工業(yè)大學安徽省 211工程院校 教育部直屬院校
【文章頁數(shù)】:67 頁
【學位級別】:碩士
【部分圖文】:
基于內(nèi)容的推薦主要內(nèi)容
第二章 相關(guān)理論基礎(chǔ)力機制的長短期記憶神經(jīng)網(wǎng)絡(luò)絡(luò)一般用以解決分類問題或特征提取問題,它現(xiàn)實中的很多數(shù)據(jù)不滿足這一條件,如文本這一個重要的特點,即前后數(shù)據(jù)存在關(guān)系,而卷積掘出上下文交互信息。循環(huán)神經(jīng)網(wǎng)絡(luò)專門用以列和空間序列關(guān)系[35,36]。如圖 2.4 所示,這是一側(cè)將左側(cè)結(jié)構(gòu)進行展開,圖中的箭頭表示數(shù)據(jù) y 是樣本的標簽,L 是損失函數(shù),o 代表輸出, t 表示 t 時刻的狀態(tài)。循環(huán)神經(jīng)網(wǎng)絡(luò)最大的特連接,通過這種鏈式結(jié)構(gòu)和記憶方式,前面的節(jié)響作用不斷累積和記憶,可以很好的挖掘出文
圖 2.7 改進后的 Encoder-Decoder 模型Fig 2.7 Improved Encoder-Decoder model量 vi的計算過程體現(xiàn)了注意機制的思想似度,該相似度代表了注意力的權(quán)重,是改進了上下文向量的計算方法,但相似經(jīng)網(wǎng)絡(luò)在處理數(shù)據(jù)時能夠?qū)⒆⒁饬行g(shù)加入了基于注意力的機制,取得了不基礎(chǔ)上 LSTM 加入了門限的結(jié)構(gòu)讓整個相關(guān)信息,克服了 RNN 的不足,并加入因此本文嘗試將這一方法應(yīng)用于推薦領(lǐng)域及到的一些關(guān)鍵技術(shù)。首先描述了核心狀等內(nèi)容,針對協(xié)同過濾算法和基于內(nèi)容
本文編號:3348706
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3348706.html
最近更新
教材專著