基于客服會話的客戶購物意愿預測模型研究與應用
發(fā)布時間:2021-02-04 10:31
隨著互聯(lián)網(wǎng)的發(fā)展,電子商務正在逐步取代傳統(tǒng)的零售業(yè),在線購物已成為大眾生活的一部分,商家的服務中心開始由商品轉向客戶。如何利用有限的時間,與客戶有效溝通,了解客戶需求,盡量激發(fā)客戶的購物意愿,是商家提高競爭力的重要手段。在大多數(shù)網(wǎng)絡購物場景中,客戶往往希望對商品的咨詢得到及時的解答,否則很可能轉向其他商家。因此,在海量客服會話數(shù)據(jù)中,實時挖掘出具有潛在購物意愿的客戶(潛在購物客戶),以對其提供重點服務,對于提升客服效率和企業(yè)效益非常重要。目前,基于客戶歷史行為(歷史購買記錄、瀏覽記錄等)預測客戶購物意愿的研究較多,而基于客服會話實現(xiàn)在線預測的研究很少。相對于后者,基于客戶歷史行為的預測模型存在以下主要不足:(1)實時性差;(2)難以對新客戶的購物意愿做出準確判斷;(3)老客戶的每次客服咨詢不一定都具有購物意愿;(4)客戶對于具體商品的購物意愿經(jīng)常會轉移;(5)基于客服會話實時預測客戶的購物意愿,是智能客服的關鍵功能之一。為此,本文基于電子商務平臺的實時客服會話數(shù)據(jù),研究如何構建客戶購物意愿在線預測模型,實現(xiàn)潛在購物客戶的實時挖掘,其主要工作包括:(1)基于某省電信公司微信營業(yè)廳在線預測...
【文章來源】:南昌大學江西省 211工程院校
【文章頁數(shù)】:77 頁
【學位級別】:碩士
【部分圖文】:
圖2.1?Transformer模型結構圖??8??
?第2章相關理論與技術???n??aj?—?^?tanh(/ij?*?U?+?B)?*?K7?(2.8)??i=0??[a0,?ct1}...;?dn\?=?SoftMax([a0>?alt...;?an])?(2.9)??ex?一?e-x??tanh(x)?=?—(2.10)??ex?+?e?X??step3-對輸入信息進行加權求和,得到注意力信息C。??n??C?=?^?hi?*?ai?(2.11)??i=l??其計算流程如圖Z6所示。??0.5?Ql?0.5^?0.5?尚?0.5?如,??A?A?A??softmax??4?A?A?A??a〇?O-l?Q〇?ap??h1?—>?h2?—??h3?—??h4??_-j-?T? ̄ ̄T ̄ ̄??購買?流量?加速?包??圖2.6?Attention算法計算流程??2.3?Bi?LSTM??2.3.1?LSTM??LSTM全稱為Long?short-term?memory,中文名叫長短期記憶,在1997年由??14??
?第2章相關理論與技術???Sepp?Hochreiter和JUrgen?Schmidhuber首次提出,它是一種遞歸神經(jīng)網(wǎng)絡(RNN?),??在計算時把之前輸出的作為輸入的一部分,然后與下一次輸入一起輸入到神經(jīng)??網(wǎng)絡中,把先前的輸入信息保留以備后續(xù)使用。RNN適用于預測詞與信息間隔??較小的情況,當預測信息比較復雜而且間隔比較大時,需要用LSTM具有長短??期記憶的算法來計算,可以根據(jù)上下文的語義信息,解決長期依賴問題。在LSTM??是通過三“門”進行計算的,分別為遺忘門、輸入門和輸出門。結構中有一個??Sigmoid神經(jīng)網(wǎng)絡層,作用是把輸出的結果控制在[0-1]之間,用這種方式表示有??多少信息量通過,0表示沒有信息通過,1表示信息全部通過。??????0???L??L??L??^??A?林本dl?A?_??圖2.7?LSTM模型圖??1、遺忘門??LSTM中的遺忘門是決定哪些信息需要被舍棄的,用概率來決定上一層有多??少信息被遺忘,數(shù)學公式如下。??/t?=?o{Wf?*?[ht_vxt]?+?bf)?(2.12)??其中/Vl表示上一層輸入,&表示本序列輸入,fSSigmoid激活函數(shù),輸??入結果在[0-1]之間%和力代表線性關系的系數(shù),輸出結果1表示遺忘上一層??信息的概率。??15??
本文編號:3018167
【文章來源】:南昌大學江西省 211工程院校
【文章頁數(shù)】:77 頁
【學位級別】:碩士
【部分圖文】:
圖2.1?Transformer模型結構圖??8??
?第2章相關理論與技術???n??aj?—?^?tanh(/ij?*?U?+?B)?*?K7?(2.8)??i=0??[a0,?ct1}...;?dn\?=?SoftMax([a0>?alt...;?an])?(2.9)??ex?一?e-x??tanh(x)?=?—(2.10)??ex?+?e?X??step3-對輸入信息進行加權求和,得到注意力信息C。??n??C?=?^?hi?*?ai?(2.11)??i=l??其計算流程如圖Z6所示。??0.5?Ql?0.5^?0.5?尚?0.5?如,??A?A?A??softmax??4?A?A?A??a〇?O-l?Q〇?ap??h1?—>?h2?—??h3?—??h4??_-j-?T? ̄ ̄T ̄ ̄??購買?流量?加速?包??圖2.6?Attention算法計算流程??2.3?Bi?LSTM??2.3.1?LSTM??LSTM全稱為Long?short-term?memory,中文名叫長短期記憶,在1997年由??14??
?第2章相關理論與技術???Sepp?Hochreiter和JUrgen?Schmidhuber首次提出,它是一種遞歸神經(jīng)網(wǎng)絡(RNN?),??在計算時把之前輸出的作為輸入的一部分,然后與下一次輸入一起輸入到神經(jīng)??網(wǎng)絡中,把先前的輸入信息保留以備后續(xù)使用。RNN適用于預測詞與信息間隔??較小的情況,當預測信息比較復雜而且間隔比較大時,需要用LSTM具有長短??期記憶的算法來計算,可以根據(jù)上下文的語義信息,解決長期依賴問題。在LSTM??是通過三“門”進行計算的,分別為遺忘門、輸入門和輸出門。結構中有一個??Sigmoid神經(jīng)網(wǎng)絡層,作用是把輸出的結果控制在[0-1]之間,用這種方式表示有??多少信息量通過,0表示沒有信息通過,1表示信息全部通過。??????0???L??L??L??^??A?林本dl?A?_??圖2.7?LSTM模型圖??1、遺忘門??LSTM中的遺忘門是決定哪些信息需要被舍棄的,用概率來決定上一層有多??少信息被遺忘,數(shù)學公式如下。??/t?=?o{Wf?*?[ht_vxt]?+?bf)?(2.12)??其中/Vl表示上一層輸入,&表示本序列輸入,fSSigmoid激活函數(shù),輸??入結果在[0-1]之間%和力代表線性關系的系數(shù),輸出結果1表示遺忘上一層??信息的概率。??15??
本文編號:3018167
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3018167.html
最近更新
教材專著