基于深度學(xué)習(xí)的協(xié)同過(guò)濾模型在推薦系統(tǒng)中的研究
發(fā)布時(shí)間:2023-05-18 22:40
在互聯(lián)網(wǎng)時(shí)代快速發(fā)展的今天,數(shù)據(jù)呈現(xiàn)了指數(shù)式的增長(zhǎng)速度,2018年全球互聯(lián)網(wǎng)用戶數(shù)已經(jīng)達(dá)到36億,將超過(guò)全球人口總數(shù)的50%。電商份額也在持續(xù)增長(zhǎng),亞馬遜的商品交易總值由2013年的20%增長(zhǎng)到2017年的28%。同時(shí),電子商務(wù)的推薦比例也在攀升中,由2015年的2%增長(zhǎng)到2017年的6%。怎樣讓推薦更加滿足消費(fèi)者的需求是我們研究的課題。協(xié)同過(guò)濾算法成為了目前主流的推薦算法。其在工業(yè)界應(yīng)用廣泛,模型通用性較強(qiáng),不需要太多對(duì)應(yīng)數(shù)據(jù)領(lǐng)域的專業(yè)知識(shí),工程實(shí)現(xiàn)也較簡(jiǎn)單,效果也不錯(cuò)。當(dāng)然,協(xié)同過(guò)濾也有一些難以避免的難題,比如令人頭疼的“冷啟動(dòng)”問(wèn)題,當(dāng)沒(méi)有新用戶任何數(shù)據(jù)的時(shí)候,無(wú)法較好的為新用戶推薦物品。本篇文章以MovieLens電影數(shù)據(jù)集為原始數(shù)據(jù)集,首先介紹了協(xié)同過(guò)濾模型、隱語(yǔ)義模型以及改進(jìn)之后的模型,為了提高模型預(yù)測(cè)準(zhǔn)確度和推薦的精度,在協(xié)同過(guò)濾模型基礎(chǔ)上分別使用了文本卷積網(wǎng)絡(luò)和長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)訓(xùn)練模型。文章的主要內(nèi)容:1.介紹協(xié)同過(guò)濾、隱語(yǔ)義模型以及改進(jìn)后模型的理論方法和參數(shù)推導(dǎo)過(guò)程;2.分別介紹了深度學(xué)習(xí)中卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)的理論方法和參數(shù)推導(dǎo)過(guò)程;3.基于Movie...
【文章頁(yè)數(shù)】:50 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 研究背景
1.2 研究目的和意義
1.3 研究?jī)?nèi)容與方法
1.3.1 研究?jī)?nèi)容
1.3.2 推薦系統(tǒng)評(píng)價(jià)指標(biāo)
1.4 本文的主要貢獻(xiàn)
第二章 文獻(xiàn)綜述
2.1 用戶行為的個(gè)性化推薦在國(guó)內(nèi)外的研究狀況及水平
2.2 協(xié)同過(guò)濾模型在國(guó)內(nèi)外的研究狀況及水平
2.3 隱語(yǔ)義模型在國(guó)內(nèi)外的研究狀況及水平
2.4 應(yīng)用深度學(xué)習(xí)的推薦系統(tǒng)在國(guó)內(nèi)外的研究狀況及水平
第三章 協(xié)同過(guò)濾模型與隱語(yǔ)義模型
3.1 基于用戶的協(xié)同過(guò)濾模型
3.1.1 基礎(chǔ)算法
3.1.2 改進(jìn)用戶興趣相似度的計(jì)算
3.2 傳統(tǒng)SVD分解模型
3.3 隱語(yǔ)義Simon Funk的SVD分解模型
3.3.1 模型思想
3.3.2 模型內(nèi)容
3.3.3 模型求解方法
第四章 深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)
4.1 卷積神經(jīng)網(wǎng)絡(luò)(CNN)
4.1.1 模型結(jié)構(gòu)
4.1.2 卷積層計(jì)算
4.1.3 池化層計(jì)算
4.1.4 全連接層
4.1.5 卷積神經(jīng)網(wǎng)絡(luò)前向傳播算法
4.2 長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)
4.2.1 模型結(jié)構(gòu)
4.2.2 LSTM之遺忘門(mén)
4.2.3 LSTM之輸入門(mén)
4.2.4 LSTM之細(xì)胞狀態(tài)更新
4.2.5 LSTM之輸出門(mén)
4.2.6 LSTM反向傳播算法
第五章 模型實(shí)驗(yàn)與評(píng)估
5.1 數(shù)據(jù)預(yù)處理
5.1.1 數(shù)據(jù)集的來(lái)源
5.1.2 數(shù)據(jù)向量化
5.2 基于用戶的協(xié)同過(guò)濾模型
5.3 改進(jìn)的用戶協(xié)同過(guò)濾模型與隱語(yǔ)義模型
5.4 文本卷積神經(jīng)網(wǎng)絡(luò)
5.4.1 CNN模型設(shè)計(jì)
5.4.2 CNN模型結(jié)果分析
5.5 長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)
5.5.1 LSTM模型設(shè)計(jì)
5.5.2 LSTM模型結(jié)果分析
5.6 模型結(jié)果對(duì)比
5.7 向用戶推薦電影
第六章 結(jié)論與展望
6.1 結(jié)論
6.2 展望
致謝
參考文獻(xiàn)
本文編號(hào):3819136
【文章頁(yè)數(shù)】:50 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 研究背景
1.2 研究目的和意義
1.3 研究?jī)?nèi)容與方法
1.3.1 研究?jī)?nèi)容
1.3.2 推薦系統(tǒng)評(píng)價(jià)指標(biāo)
1.4 本文的主要貢獻(xiàn)
第二章 文獻(xiàn)綜述
2.1 用戶行為的個(gè)性化推薦在國(guó)內(nèi)外的研究狀況及水平
2.2 協(xié)同過(guò)濾模型在國(guó)內(nèi)外的研究狀況及水平
2.3 隱語(yǔ)義模型在國(guó)內(nèi)外的研究狀況及水平
2.4 應(yīng)用深度學(xué)習(xí)的推薦系統(tǒng)在國(guó)內(nèi)外的研究狀況及水平
第三章 協(xié)同過(guò)濾模型與隱語(yǔ)義模型
3.1 基于用戶的協(xié)同過(guò)濾模型
3.1.1 基礎(chǔ)算法
3.1.2 改進(jìn)用戶興趣相似度的計(jì)算
3.2 傳統(tǒng)SVD分解模型
3.3 隱語(yǔ)義Simon Funk的SVD分解模型
3.3.1 模型思想
3.3.2 模型內(nèi)容
3.3.3 模型求解方法
第四章 深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)
4.1 卷積神經(jīng)網(wǎng)絡(luò)(CNN)
4.1.1 模型結(jié)構(gòu)
4.1.2 卷積層計(jì)算
4.1.3 池化層計(jì)算
4.1.4 全連接層
4.1.5 卷積神經(jīng)網(wǎng)絡(luò)前向傳播算法
4.2 長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)
4.2.1 模型結(jié)構(gòu)
4.2.2 LSTM之遺忘門(mén)
4.2.3 LSTM之輸入門(mén)
4.2.4 LSTM之細(xì)胞狀態(tài)更新
4.2.5 LSTM之輸出門(mén)
4.2.6 LSTM反向傳播算法
第五章 模型實(shí)驗(yàn)與評(píng)估
5.1 數(shù)據(jù)預(yù)處理
5.1.1 數(shù)據(jù)集的來(lái)源
5.1.2 數(shù)據(jù)向量化
5.2 基于用戶的協(xié)同過(guò)濾模型
5.3 改進(jìn)的用戶協(xié)同過(guò)濾模型與隱語(yǔ)義模型
5.4 文本卷積神經(jīng)網(wǎng)絡(luò)
5.4.1 CNN模型設(shè)計(jì)
5.4.2 CNN模型結(jié)果分析
5.5 長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)
5.5.1 LSTM模型設(shè)計(jì)
5.5.2 LSTM模型結(jié)果分析
5.6 模型結(jié)果對(duì)比
5.7 向用戶推薦電影
第六章 結(jié)論與展望
6.1 結(jié)論
6.2 展望
致謝
參考文獻(xiàn)
本文編號(hào):3819136
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3819136.html
最近更新
教材專著