基于移動軌跡的社交關(guān)系推斷
發(fā)布時(shí)間:2022-01-22 14:12
隨著蜂巢式網(wǎng)絡(luò)和無線通信技術(shù)的快速發(fā)展,各種可以實(shí)現(xiàn)定位功能的移動設(shè)備和基于位置信息的社交網(wǎng)絡(luò)(Location-based Social Network,LBSN)相繼出現(xiàn)并得到了廣泛的使用,與此同時(shí),它們也產(chǎn)生了大量與當(dāng)前位置相關(guān)的數(shù)據(jù),例如:照片、推特和簽到信息等。這些地理數(shù)據(jù)為我們實(shí)現(xiàn)從用戶的移動數(shù)據(jù)中挖掘其潛在的隱含信息提供了一個(gè)前所未有的機(jī)會,而挖掘用戶的移動模式這一任務(wù)對興趣點(diǎn)推薦、運(yùn)動軌跡識別和個(gè)性化出行規(guī)劃等下游應(yīng)用而言都是極為重要的。最近,一項(xiàng)稱為基于移動數(shù)據(jù)實(shí)現(xiàn)社交關(guān)系推理(Social Circle Inference from Mobility data,SCIM)的任務(wù)引起了研究學(xué)者的廣泛關(guān)注,該任務(wù)的應(yīng)用場景為:在沒有給出任何明確的結(jié)構(gòu)化網(wǎng)絡(luò)信息的情況下,僅僅依據(jù)用戶的移動數(shù)據(jù)推斷用戶之間的社交關(guān)系。現(xiàn)有的推斷方法要么需要已知部分社交關(guān)系,要么無法對用戶之間的隱含關(guān)系進(jìn)行建模,故而存在一定的推理誤差。本文針對SCIM任務(wù)提出了基于自注意力的社交關(guān)系推理模型(SCIMA,SCIM via self-Attention),該模型主要包含用戶移動模式挖掘和社交關(guān)...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:90 頁
【學(xué)位級別】:碩士
【部分圖文】:
機(jī)器學(xué)習(xí)與人類思維模式對比
第二章相關(guān)原理及技術(shù)19長短期記憶網(wǎng)絡(luò)(LongShortTermMemoryNetwork,LSTM)是一種廣泛應(yīng)用的循環(huán)神經(jīng)網(wǎng)絡(luò)的變體,在循環(huán)神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,該網(wǎng)絡(luò)分別引入遺忘門tf、輸入門ti、輸出門to這三個(gè)門來實(shí)現(xiàn)讓部分信息有選擇性的通過。所謂門控機(jī)制即選擇性地遺忘部分歷史信息以及選擇性地保留新的輸入信息,數(shù)字電路中,“門”的取值為1或0,1代表允許所有信號通過,反之,0代表不允許任何信號通過。ht+1xt-1xtxt+1×+σσtanhσ××tanhht-1ht圖2-9LSTM內(nèi)部結(jié)構(gòu)遺忘門tf主要負(fù)責(zé)控制從上一時(shí)刻的細(xì)胞(Cell)狀態(tài)中丟失多少信息,其計(jì)算方式如公式(2-5):1([,])tfttffhxbW(2-5)其中,()代表Sigmoid函數(shù),tf的取值區(qū)間為(0,1),t1h為前一步隱含狀態(tài)的輸出,tx代表當(dāng)前時(shí)刻的輸入,fW為參數(shù)矩陣,fb為偏差向量。圖2-10Sigmoid函數(shù)圖像此處選擇Sigmoid函數(shù)(其函數(shù)圖如圖2-10所示)作為激活函數(shù)的主要原因如下:Sigmoid函數(shù)走向單調(diào)且連續(xù)遞增,其輸出范圍在(0,1)之間,而且對該函數(shù)
第二章相關(guān)原理及技術(shù)21當(dāng)前序列的特征表示(如圖2-11),并將其傳遞給分類器g(),該序列對應(yīng)的標(biāo)簽分類結(jié)果可由公式(2-11)求得:()Tygh(2-11)其中,g()可為softmax等簡單的線性函數(shù),亦或是多層前饋神經(jīng)網(wǎng)絡(luò)等復(fù)雜的分類器。h1x1h2x2hTxT......y圖2-11序列到類別模式模型圖softmax函數(shù)又稱歸一化指數(shù)函數(shù),該函數(shù)可以將任意一個(gè)k維的實(shí)數(shù)向量壓縮到另一個(gè)k維的向量中,使得壓縮后的向量其每一維的取值范圍都在(0,1)之間,且該向量中所有元素的值加起來恒等于1,其函數(shù)圖像如圖2-12所示。圖2-12softmax函數(shù)圖像相較于sigmoid函數(shù)這種二分類問題中的激活函數(shù),softmax函數(shù)的本質(zhì)是對概率分布向量中各個(gè)維度對應(yīng)的梯度對數(shù)做一個(gè)歸一化,故softmax函數(shù)在深度學(xué)習(xí)領(lǐng)域被廣泛應(yīng)用于多項(xiàng)式線性分析,多項(xiàng)邏輯回歸等多種多類別回歸問題。在多
【參考文獻(xiàn)】:
碩士論文
[1]基于社交媒體的短文本數(shù)據(jù)挖掘研究[D]. 杜娜娜.天津理工大學(xué) 2018
本文編號:3602339
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:90 頁
【學(xué)位級別】:碩士
【部分圖文】:
機(jī)器學(xué)習(xí)與人類思維模式對比
第二章相關(guān)原理及技術(shù)19長短期記憶網(wǎng)絡(luò)(LongShortTermMemoryNetwork,LSTM)是一種廣泛應(yīng)用的循環(huán)神經(jīng)網(wǎng)絡(luò)的變體,在循環(huán)神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,該網(wǎng)絡(luò)分別引入遺忘門tf、輸入門ti、輸出門to這三個(gè)門來實(shí)現(xiàn)讓部分信息有選擇性的通過。所謂門控機(jī)制即選擇性地遺忘部分歷史信息以及選擇性地保留新的輸入信息,數(shù)字電路中,“門”的取值為1或0,1代表允許所有信號通過,反之,0代表不允許任何信號通過。ht+1xt-1xtxt+1×+σσtanhσ××tanhht-1ht圖2-9LSTM內(nèi)部結(jié)構(gòu)遺忘門tf主要負(fù)責(zé)控制從上一時(shí)刻的細(xì)胞(Cell)狀態(tài)中丟失多少信息,其計(jì)算方式如公式(2-5):1([,])tfttffhxbW(2-5)其中,()代表Sigmoid函數(shù),tf的取值區(qū)間為(0,1),t1h為前一步隱含狀態(tài)的輸出,tx代表當(dāng)前時(shí)刻的輸入,fW為參數(shù)矩陣,fb為偏差向量。圖2-10Sigmoid函數(shù)圖像此處選擇Sigmoid函數(shù)(其函數(shù)圖如圖2-10所示)作為激活函數(shù)的主要原因如下:Sigmoid函數(shù)走向單調(diào)且連續(xù)遞增,其輸出范圍在(0,1)之間,而且對該函數(shù)
第二章相關(guān)原理及技術(shù)21當(dāng)前序列的特征表示(如圖2-11),并將其傳遞給分類器g(),該序列對應(yīng)的標(biāo)簽分類結(jié)果可由公式(2-11)求得:()Tygh(2-11)其中,g()可為softmax等簡單的線性函數(shù),亦或是多層前饋神經(jīng)網(wǎng)絡(luò)等復(fù)雜的分類器。h1x1h2x2hTxT......y圖2-11序列到類別模式模型圖softmax函數(shù)又稱歸一化指數(shù)函數(shù),該函數(shù)可以將任意一個(gè)k維的實(shí)數(shù)向量壓縮到另一個(gè)k維的向量中,使得壓縮后的向量其每一維的取值范圍都在(0,1)之間,且該向量中所有元素的值加起來恒等于1,其函數(shù)圖像如圖2-12所示。圖2-12softmax函數(shù)圖像相較于sigmoid函數(shù)這種二分類問題中的激活函數(shù),softmax函數(shù)的本質(zhì)是對概率分布向量中各個(gè)維度對應(yīng)的梯度對數(shù)做一個(gè)歸一化,故softmax函數(shù)在深度學(xué)習(xí)領(lǐng)域被廣泛應(yīng)用于多項(xiàng)式線性分析,多項(xiàng)邏輯回歸等多種多類別回歸問題。在多
【參考文獻(xiàn)】:
碩士論文
[1]基于社交媒體的短文本數(shù)據(jù)挖掘研究[D]. 杜娜娜.天津理工大學(xué) 2018
本文編號:3602339
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3602339.html
最近更新
教材專著