基于深度學(xué)習(xí)的文本分類與推薦系統(tǒng)研究及實(shí)現(xiàn)
發(fā)布時(shí)間:2021-01-20 02:36
伴隨互聯(lián)網(wǎng)+時(shí)代的到來(lái),與互聯(lián)網(wǎng)相關(guān)的應(yīng)用層出不窮,如智慧出行、網(wǎng)絡(luò)購(gòu)物、共享出租和資訊與知識(shí)的推薦系統(tǒng)等等,給我們的生活帶來(lái)了巨大的改變。尤其是推薦系統(tǒng)為我們提供了個(gè)性化的服務(wù),減少了原本為獲取信息而花費(fèi)的大量檢索時(shí)間。然而,現(xiàn)在的推薦系統(tǒng)準(zhǔn)確率還不夠高,智能性也沒(méi)有達(dá)到人們的需求。因此,構(gòu)建一種準(zhǔn)確率更高的智能推薦系統(tǒng)是目前亟待解決的問(wèn)題。本文提出了一種新的基于深度學(xué)習(xí)技術(shù)的面向閱讀應(yīng)用的智能推薦系統(tǒng)。首先,結(jié)合深度學(xué)習(xí)技術(shù)與文檔主題概率模型算法,提出了一種文本分類混合模型。該模型利用LDA算法計(jì)算出文檔主題概率分布,而后將主題分布向量作為輸入,利用深度學(xué)習(xí)算法進(jìn)行分類訓(xùn)練及預(yù)測(cè)。實(shí)驗(yàn)結(jié)果表明,該分類預(yù)測(cè)準(zhǔn)確率高于Naive Bayes算法百分之十左右。其次,設(shè)計(jì)并實(shí)現(xiàn)了基于分類算法的面向閱讀的推薦系統(tǒng)。該系統(tǒng)構(gòu)建于分布式計(jì)算平臺(tái)Spark和分布式存儲(chǔ)平臺(tái)HDFS之上,具體包括系統(tǒng)推薦模塊和系統(tǒng)功能模塊,極大地提高了系統(tǒng)的可擴(kuò)展性和運(yùn)行性能。最終,該面向閱讀的推薦系統(tǒng)可以為用戶提供準(zhǔn)確率高于協(xié)同過(guò)濾3個(gè)百分點(diǎn)的推薦結(jié)果,并且系統(tǒng)健壯性和擴(kuò)展性更好。
【文章來(lái)源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:67 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
Kevin和其他兩個(gè)用戶比較
M??圖2-2?LDA貝葉斯網(wǎng)絡(luò)圖丨37】??LDA是一個(gè)概率圖模型,如圖2-2所示。圖中M表示所有文檔的數(shù)量,W??表示一個(gè)文檔中詞的數(shù)量,尺表示總體主題的個(gè)數(shù)。a是文檔-主題Dirichlet??分布3的超參數(shù),是主題-詞Dirichlet分布%.的超參數(shù),0表示文檔丨的主題??分布,表示文檔丨中第_/個(gè)詞的主題,%表示主題丨的詞分布,'表示一個(gè)??16??
?parts?0.00464?group?0.00328??圖3-1文檔-主題及主題-詞概率表示示例|54]??3.2深度語(yǔ)義模型算法的設(shè)計(jì)與實(shí)現(xiàn)??十.-=■_??'?—?Hidde?圍..jtLayer??1......卜?M-ll/u??,_?m?11?1??圖3-2深度語(yǔ)義模型結(jié)構(gòu)圖??如圖3-2所示,其展示了一個(gè)本文所設(shè)計(jì)的深度語(yǔ)義模型架構(gòu)圖。圖中的前??半部分表示利用LDA技術(shù)進(jìn)行主題模型抽取,后半部分為深度學(xué)習(xí)表示模型,??其輸入向量正是LDA算法的輸出。該模型明確的定義了算法的輸入與輸出及中??間值的銜接。其數(shù)據(jù)流動(dòng)圖如圖3-3所示。??——^ ̄n——n—??Document?Ida?)?Vector?of?doc?deep?learning?y?Classic?cation??—/?—y^—???????圖3-3數(shù)據(jù)流動(dòng)圖??本文所設(shè)計(jì)的學(xué)習(xí)模型具有模型一致性和數(shù)據(jù)連貫性等特點(diǎn)。該模型明確??的將主題特征向量輸入到神經(jīng)網(wǎng)絡(luò)框架中
本文編號(hào):2988194
【文章來(lái)源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:67 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
Kevin和其他兩個(gè)用戶比較
M??圖2-2?LDA貝葉斯網(wǎng)絡(luò)圖丨37】??LDA是一個(gè)概率圖模型,如圖2-2所示。圖中M表示所有文檔的數(shù)量,W??表示一個(gè)文檔中詞的數(shù)量,尺表示總體主題的個(gè)數(shù)。a是文檔-主題Dirichlet??分布3的超參數(shù),是主題-詞Dirichlet分布%.的超參數(shù),0表示文檔丨的主題??分布,表示文檔丨中第_/個(gè)詞的主題,%表示主題丨的詞分布,'表示一個(gè)??16??
?parts?0.00464?group?0.00328??圖3-1文檔-主題及主題-詞概率表示示例|54]??3.2深度語(yǔ)義模型算法的設(shè)計(jì)與實(shí)現(xiàn)??十.-=■_??'?—?Hidde?圍..jtLayer??1......卜?M-ll/u??,_?m?11?1??圖3-2深度語(yǔ)義模型結(jié)構(gòu)圖??如圖3-2所示,其展示了一個(gè)本文所設(shè)計(jì)的深度語(yǔ)義模型架構(gòu)圖。圖中的前??半部分表示利用LDA技術(shù)進(jìn)行主題模型抽取,后半部分為深度學(xué)習(xí)表示模型,??其輸入向量正是LDA算法的輸出。該模型明確的定義了算法的輸入與輸出及中??間值的銜接。其數(shù)據(jù)流動(dòng)圖如圖3-3所示。??——^ ̄n——n—??Document?Ida?)?Vector?of?doc?deep?learning?y?Classic?cation??—/?—y^—???????圖3-3數(shù)據(jù)流動(dòng)圖??本文所設(shè)計(jì)的學(xué)習(xí)模型具有模型一致性和數(shù)據(jù)連貫性等特點(diǎn)。該模型明確??的將主題特征向量輸入到神經(jīng)網(wǎng)絡(luò)框架中
本文編號(hào):2988194
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2988194.html
最近更新
教材專著