RGB和2D骨架序列中基于深度特征編碼網(wǎng)絡(luò)的行為識別方法
發(fā)布時間:2021-08-16 00:48
行為識別是計算機視覺的重要研究領(lǐng)域之一,因其具有實際應(yīng)用前景,吸引了許多國內(nèi)外學(xué)者的廣泛關(guān)注,并且涌現(xiàn)了許多有價值的研究成果。但是,行為識別研究依舊面臨和其他計算機視覺領(lǐng)域相同的問題,例如:視角變化,表觀變化,動作執(zhí)行速率變化等問題。另外,隨著不同類型的數(shù)據(jù)傳感器的出現(xiàn),針對不同的數(shù)據(jù)類型,如RGB視頻,深度視頻以及骨架數(shù)據(jù),人體行為識別的研究也涌現(xiàn)了不同的方法。為了更好地適用于實際場景,本文從RGB視頻和2D骨架數(shù)據(jù)入手,針對這類數(shù)據(jù)中行為識別存在的這些問題,進行了深入的研究,主要的研究內(nèi)容具體包括:(1)首先,本文基于RGB和2D骨架序列設(shè)計了基于骨架關(guān)節(jié)點采樣的局部軌跡時空體特征,從視頻中提取更加簡潔有效的局部時空特征。其次,在算法中提出了基于深度學(xué)習的視頻局部特征表示和編碼方法,并且將深度學(xué)習特征與手工特征融合,提高了基于骨架關(guān)節(jié)點采樣特征的識別效果。此外,在文本的工作中,對比了分關(guān)節(jié)點編碼和合并所有節(jié)點特征的編碼方式,在分關(guān)節(jié)點編碼的基礎(chǔ)上,嘗試了不同關(guān)節(jié)點組合的策略,進一步提高了識別準確率。(2)本文提出了端對端的視覺單詞模型以及該模型的訓(xùn)練策略。端對端模型在許多計算機視覺...
【文章來源】:華僑大學(xué)福建省
【文章頁數(shù)】:73 頁
【學(xué)位級別】:碩士
【部分圖文】:
傳統(tǒng)方法流程
14圖2.1單隱層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)其中,神經(jīng)元結(jié)構(gòu)的示意圖如圖2.2所示,,,…,表示神經(jīng)元輸入,通過權(quán)值,,…,得到加權(quán)和,再加入激活函數(shù)f,輸出為。神經(jīng)網(wǎng)絡(luò)將前一層的神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。圖2.2神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的擬合過程是通過反向傳播(BackPropagation,BP)實現(xiàn)的。在訓(xùn)練過程中,網(wǎng)絡(luò)通過前向傳播得到預(yù)測值,通過計算預(yù)測值與真實值之間的差距=∑||||,在反向傳播階段調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)大小,的值越小,神經(jīng)網(wǎng)絡(luò)的擬合程度就越高。因此,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目標是優(yōu)化函數(shù)使的值變小,如果可以找到全局最小值點,那么認為神經(jīng)網(wǎng)絡(luò)收斂。待優(yōu)化函數(shù)叫做損失
14圖2.1單隱層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)其中,神經(jīng)元結(jié)構(gòu)的示意圖如圖2.2所示,,,…,表示神經(jīng)元輸入,通過權(quán)值,,…,得到加權(quán)和,再加入激活函數(shù)f,輸出為。神經(jīng)網(wǎng)絡(luò)將前一層的神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。圖2.2神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的擬合過程是通過反向傳播(BackPropagation,BP)實現(xiàn)的。在訓(xùn)練過程中,網(wǎng)絡(luò)通過前向傳播得到預(yù)測值,通過計算預(yù)測值與真實值之間的差距=∑||||,在反向傳播階段調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)大小,的值越小,神經(jīng)網(wǎng)絡(luò)的擬合程度就越高。因此,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目標是優(yōu)化函數(shù)使的值變小,如果可以找到全局最小值點,那么認為神經(jīng)網(wǎng)絡(luò)收斂。待優(yōu)化函數(shù)叫做損失
【參考文獻】:
期刊論文
[1]新一代人工智能發(fā)展規(guī)劃[J]. 先鋒. 2017(08)
本文編號:3345242
【文章來源】:華僑大學(xué)福建省
【文章頁數(shù)】:73 頁
【學(xué)位級別】:碩士
【部分圖文】:
傳統(tǒng)方法流程
14圖2.1單隱層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)其中,神經(jīng)元結(jié)構(gòu)的示意圖如圖2.2所示,,,…,表示神經(jīng)元輸入,通過權(quán)值,,…,得到加權(quán)和,再加入激活函數(shù)f,輸出為。神經(jīng)網(wǎng)絡(luò)將前一層的神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。圖2.2神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的擬合過程是通過反向傳播(BackPropagation,BP)實現(xiàn)的。在訓(xùn)練過程中,網(wǎng)絡(luò)通過前向傳播得到預(yù)測值,通過計算預(yù)測值與真實值之間的差距=∑||||,在反向傳播階段調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)大小,的值越小,神經(jīng)網(wǎng)絡(luò)的擬合程度就越高。因此,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目標是優(yōu)化函數(shù)使的值變小,如果可以找到全局最小值點,那么認為神經(jīng)網(wǎng)絡(luò)收斂。待優(yōu)化函數(shù)叫做損失
14圖2.1單隱層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)其中,神經(jīng)元結(jié)構(gòu)的示意圖如圖2.2所示,,,…,表示神經(jīng)元輸入,通過權(quán)值,,…,得到加權(quán)和,再加入激活函數(shù)f,輸出為。神經(jīng)網(wǎng)絡(luò)將前一層的神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。圖2.2神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的擬合過程是通過反向傳播(BackPropagation,BP)實現(xiàn)的。在訓(xùn)練過程中,網(wǎng)絡(luò)通過前向傳播得到預(yù)測值,通過計算預(yù)測值與真實值之間的差距=∑||||,在反向傳播階段調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)大小,的值越小,神經(jīng)網(wǎng)絡(luò)的擬合程度就越高。因此,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目標是優(yōu)化函數(shù)使的值變小,如果可以找到全局最小值點,那么認為神經(jīng)網(wǎng)絡(luò)收斂。待優(yōu)化函數(shù)叫做損失
【參考文獻】:
期刊論文
[1]新一代人工智能發(fā)展規(guī)劃[J]. 先鋒. 2017(08)
本文編號:3345242
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3345242.html
最近更新
教材專著