有說服力的產(chǎn)品描述生成
發(fā)布時間:2024-06-05 23:45
隨著計算機技術(shù)的快速發(fā)展,人們在努力使機器變得更加人性化,因此,本文研究如何讓機器智能地生成有說服力的自然語言描述的問題,該描述既要傳達產(chǎn)品信息,又要提供與用戶需求相關(guān)的解釋。這個問題可能會受益于當(dāng)前大量關(guān)于端到端深度神經(jīng)網(wǎng)絡(luò)的研究工作。然而,深度神經(jīng)網(wǎng)絡(luò)的成功歸功于海量訓(xùn)練數(shù)據(jù)的支撐,我們無法獲取大規(guī)模的具有說服力的文本描述,因此,缺乏標(biāo)記數(shù)據(jù)和主觀判斷對訓(xùn)練這樣一個模型提出了嚴(yán)峻挑戰(zhàn)。針對以上問題,我們將系統(tǒng)分為兩部分,第一部分是弱監(jiān)督框架,通過分析外部數(shù)據(jù)源中有說服力文本包含的修辭手法,詞匯特征與語法特征,我們編寫了一組具有高覆蓋率和低準(zhǔn)確度的規(guī)則,弱監(jiān)督框架依據(jù)這些規(guī)則給未標(biāo)注數(shù)據(jù)進行自動標(biāo)注,生成帶概率標(biāo)簽的訓(xùn)練數(shù)據(jù),從而取得后續(xù)深度模型的訓(xùn)練數(shù)據(jù),這是數(shù)據(jù)層面的解決方案。第二部分是生成模型框架,為了加強用戶消費場景與產(chǎn)品屬性之間的關(guān)聯(lián),我們探索基于知識圖譜的表征方式,以整合從異質(zhì)信息源獲得的知識,這是知識層面的解決方案。在模型層面,我們設(shè)計了編碼器-解碼器的框架,在編碼層,我們提出了 Global-Local模塊來克服弱監(jiān)督問題和場景和商品之間的依賴性,在解碼層,我們增加了...
【文章頁數(shù)】:74 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 研究背景和研究目的
1.2 國內(nèi)外研究動態(tài)
1.3 本文工作
1.4 本文組織架構(gòu)
第二章 相關(guān)理論和技術(shù)
2.1 神經(jīng)網(wǎng)絡(luò)模型
2.1.1 深度神經(jīng)網(wǎng)絡(luò)
2.1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)
2.1.3 卷積神經(jīng)網(wǎng)絡(luò)
2.2 Sequence-to-sequence模型
2.2.1 Encoder-Decoder模型
2.2.2 注意力機制
2.2.3 Transformer模型
2.3 弱監(jiān)督學(xué)習(xí)
2.3.1 不完全監(jiān)督
2.3.2 不確切監(jiān)督
2.3.3 不準(zhǔn)確監(jiān)督
2.3.4 Snorkel系統(tǒng)
2.4 文本生成評估指標(biāo)
2.4.1 Edmundson指標(biāo)
2.4.2 ROUGE指標(biāo)
2.4.3 BLEU指標(biāo)
2.5 本章小結(jié)
第三章 弱監(jiān)督框架
3.1 問題定義
3.2 數(shù)據(jù)獲取
3.3 啟發(fā)式
3.4 標(biāo)注數(shù)據(jù)過程
3.5 本章小結(jié)
第四章 通過興趣相關(guān)性加載描述
4.1 問題定義
4.2 系統(tǒng)結(jié)構(gòu)
4.3 知識圖譜表示
4.4 Global-Local機制
4.5 Copy機制
4.5.1 生成模式
4.5.2 復(fù)制模式
4.6 本章小結(jié)
第五章 實驗部分
5.1 弱監(jiān)督實驗
5.1.1 實驗數(shù)據(jù)
5.1.2 標(biāo)注數(shù)據(jù)過程
5.1.3 訓(xùn)練語料庫
5.2 產(chǎn)品描述生成實驗
5.2.1 實驗設(shè)置
5.2.2 比較方法
5.2.3 評估指標(biāo)
5.2.4 弱監(jiān)督效果
5.2.5 文本生成質(zhì)量
5.3 本章小結(jié)
第六章 總結(jié)與展望
6.1 總結(jié)
6.2 展望
參考文獻
攻讀碩士學(xué)位期間發(fā)表的論文
致謝
本文編號:3989983
【文章頁數(shù)】:74 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 研究背景和研究目的
1.2 國內(nèi)外研究動態(tài)
1.3 本文工作
1.4 本文組織架構(gòu)
第二章 相關(guān)理論和技術(shù)
2.1 神經(jīng)網(wǎng)絡(luò)模型
2.1.1 深度神經(jīng)網(wǎng)絡(luò)
2.1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)
2.1.3 卷積神經(jīng)網(wǎng)絡(luò)
2.2 Sequence-to-sequence模型
2.2.1 Encoder-Decoder模型
2.2.2 注意力機制
2.2.3 Transformer模型
2.3 弱監(jiān)督學(xué)習(xí)
2.3.1 不完全監(jiān)督
2.3.2 不確切監(jiān)督
2.3.3 不準(zhǔn)確監(jiān)督
2.3.4 Snorkel系統(tǒng)
2.4 文本生成評估指標(biāo)
2.4.1 Edmundson指標(biāo)
2.4.2 ROUGE指標(biāo)
2.4.3 BLEU指標(biāo)
2.5 本章小結(jié)
第三章 弱監(jiān)督框架
3.1 問題定義
3.2 數(shù)據(jù)獲取
3.3 啟發(fā)式
3.4 標(biāo)注數(shù)據(jù)過程
3.5 本章小結(jié)
第四章 通過興趣相關(guān)性加載描述
4.1 問題定義
4.2 系統(tǒng)結(jié)構(gòu)
4.3 知識圖譜表示
4.4 Global-Local機制
4.5 Copy機制
4.5.1 生成模式
4.5.2 復(fù)制模式
4.6 本章小結(jié)
第五章 實驗部分
5.1 弱監(jiān)督實驗
5.1.1 實驗數(shù)據(jù)
5.1.2 標(biāo)注數(shù)據(jù)過程
5.1.3 訓(xùn)練語料庫
5.2 產(chǎn)品描述生成實驗
5.2.1 實驗設(shè)置
5.2.2 比較方法
5.2.3 評估指標(biāo)
5.2.4 弱監(jiān)督效果
5.2.5 文本生成質(zhì)量
5.3 本章小結(jié)
第六章 總結(jié)與展望
6.1 總結(jié)
6.2 展望
參考文獻
攻讀碩士學(xué)位期間發(fā)表的論文
致謝
本文編號:3989983
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3989983.html
最近更新
教材專著