融合物品視覺特征的協(xié)同過濾推薦算法研究
發(fā)布時(shí)間:2021-08-23 09:15
隨著互聯(lián)網(wǎng)的飛躍發(fā)展,互聯(lián)網(wǎng)上信息也呈現(xiàn)急速增長的趨勢(shì),信息過載問題越發(fā)嚴(yán)重。推薦系統(tǒng)已經(jīng)成為解決信息過載問題的重要解決方案。協(xié)同過濾(Collaborative Filtering,CF)則是其中的主流模型之一,在學(xué)術(shù)界以及工業(yè)界中均獲得了大范圍的應(yīng)用。協(xié)同過濾從用戶對(duì)物品的隱式反饋(例如,物品購買歷史,瀏覽日志等)等數(shù)據(jù)建模用戶對(duì)物品的偏好函數(shù)從而產(chǎn)生最后的推薦結(jié)果,但同時(shí)也忽略了物品的相關(guān)屬性信息,例如物品的視覺特征,物品的標(biāo)簽分類等,從而在某種程度上限制了模型的性能。本文認(rèn)為物品的視覺特征對(duì)于用戶偏好建模有著重要的影響。為此,本文提出了融合物品視覺特征的稀疏線性模型,將物品的視覺特征同用戶-物品交互記錄聯(lián)合考慮,共同建模用戶-物品交互函數(shù)。本文圍繞融合物品視覺特征這一問題進(jìn)行了深入的探究,主要研究工作如下:(1)傳統(tǒng)的協(xié)同過濾推薦算法僅僅考慮用戶對(duì)物品的交互信息,忽視了物品的視覺特征,從而限制了模型的表達(dá)效果。本文將物品的視覺特征融入基于用戶-物品交互的稀疏線性模型中,使用線性回歸的方式建模物品的視覺特征對(duì)用戶偏好的影響,實(shí)驗(yàn)結(jié)果表明模型的效果取得了明顯的提升,同時(shí)驗(yàn)證了視覺特...
【文章來源】:合肥工業(yè)大學(xué)安徽省 211工程院校 教育部直屬院校
【文章頁數(shù)】:62 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
AlexNet網(wǎng)絡(luò)結(jié)構(gòu)圖
合肥工業(yè)大學(xué)學(xué)術(shù)碩士研究生學(xué)位論文練。在本文第三章中,對(duì)于視覺特征的提取就是使用 AlexNet 網(wǎng)絡(luò)實(shí)現(xiàn)的。AlexNet 網(wǎng)絡(luò)之所以能夠取得如此巨大的成功,與以下創(chuàng)新點(diǎn)有著重要的關(guān)系:(1)激活函數(shù)采用非線性的 ReLU 函數(shù),在 AlexNet 之前,深度網(wǎng)絡(luò)的訓(xùn)練普遍都是使用 Sigmoid 函數(shù)作為激活函數(shù),Sigmoid 雖然能夠把輸入的值壓縮到(0,1)區(qū)間內(nèi),但是 Sigmoid 很容易出現(xiàn)梯度消失和爆炸的情況。當(dāng)函數(shù)的輸入處于非常大和非常小的時(shí)候,Sigmoid 函數(shù)的梯度會(huì)無限接近于 0,這對(duì)于使用反向傳播算法更新參數(shù)的神經(jīng)網(wǎng)絡(luò)來說,會(huì)導(dǎo)致梯度越來也小即梯度消失,導(dǎo)致網(wǎng)絡(luò)參數(shù)更新緩慢,降低網(wǎng)絡(luò)收斂速度。在 AlexNet 中,作者使用 ReLU 函數(shù)作為激活函數(shù),如圖 2.3 所示,由于 ReLU 函數(shù)是線性的,且在輸入值大于 0 的情況下,導(dǎo)數(shù)恒為 1,從而在一定程度上緩解了梯度消失或者爆炸的問題,加快了網(wǎng)絡(luò)的收斂速度。
丟失層Fig2.4DropoutLayer
【參考文獻(xiàn)】:
期刊論文
[1]神經(jīng)網(wǎng)絡(luò)七十年:回顧與展望[J]. 焦李成,楊淑媛,劉芳,王士剛,馮志璽. 計(jì)算機(jī)學(xué)報(bào). 2016(08)
[2]一種改進(jìn)的基于用戶項(xiàng)目喜好的相似度度量方法[J]. 雷建云,何順,王淑娟. 中南民族大學(xué)學(xué)報(bào)(自然科學(xué)版). 2015(04)
本文編號(hào):3357591
【文章來源】:合肥工業(yè)大學(xué)安徽省 211工程院校 教育部直屬院校
【文章頁數(shù)】:62 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
AlexNet網(wǎng)絡(luò)結(jié)構(gòu)圖
合肥工業(yè)大學(xué)學(xué)術(shù)碩士研究生學(xué)位論文練。在本文第三章中,對(duì)于視覺特征的提取就是使用 AlexNet 網(wǎng)絡(luò)實(shí)現(xiàn)的。AlexNet 網(wǎng)絡(luò)之所以能夠取得如此巨大的成功,與以下創(chuàng)新點(diǎn)有著重要的關(guān)系:(1)激活函數(shù)采用非線性的 ReLU 函數(shù),在 AlexNet 之前,深度網(wǎng)絡(luò)的訓(xùn)練普遍都是使用 Sigmoid 函數(shù)作為激活函數(shù),Sigmoid 雖然能夠把輸入的值壓縮到(0,1)區(qū)間內(nèi),但是 Sigmoid 很容易出現(xiàn)梯度消失和爆炸的情況。當(dāng)函數(shù)的輸入處于非常大和非常小的時(shí)候,Sigmoid 函數(shù)的梯度會(huì)無限接近于 0,這對(duì)于使用反向傳播算法更新參數(shù)的神經(jīng)網(wǎng)絡(luò)來說,會(huì)導(dǎo)致梯度越來也小即梯度消失,導(dǎo)致網(wǎng)絡(luò)參數(shù)更新緩慢,降低網(wǎng)絡(luò)收斂速度。在 AlexNet 中,作者使用 ReLU 函數(shù)作為激活函數(shù),如圖 2.3 所示,由于 ReLU 函數(shù)是線性的,且在輸入值大于 0 的情況下,導(dǎo)數(shù)恒為 1,從而在一定程度上緩解了梯度消失或者爆炸的問題,加快了網(wǎng)絡(luò)的收斂速度。
丟失層Fig2.4DropoutLayer
【參考文獻(xiàn)】:
期刊論文
[1]神經(jīng)網(wǎng)絡(luò)七十年:回顧與展望[J]. 焦李成,楊淑媛,劉芳,王士剛,馮志璽. 計(jì)算機(jī)學(xué)報(bào). 2016(08)
[2]一種改進(jìn)的基于用戶項(xiàng)目喜好的相似度度量方法[J]. 雷建云,何順,王淑娟. 中南民族大學(xué)學(xué)報(bào)(自然科學(xué)版). 2015(04)
本文編號(hào):3357591
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3357591.html
最近更新
教材專著