基于骨架序列的輕量型人人交互行為識(shí)別方法
發(fā)布時(shí)間:2024-07-05 20:23
人體行為識(shí)別作為視頻理解中的一個(gè)重要研究領(lǐng)域,其在智能監(jiān)控、智能看護(hù)、人機(jī)交互以及機(jī)器人控制等場(chǎng)景有著廣泛的應(yīng)用。在人體行為識(shí)別的研究中,采用RGB視頻數(shù)據(jù)容易受到背景多樣性、光照變化、行為人衣著變化等因素影響,而人體骨架數(shù)據(jù)本身是對(duì)人體的高度抽象,且具有相對(duì)較好的抗干擾性,因此基于骨架的行為識(shí)別研究成為一個(gè)熱點(diǎn)。目前骨架行為識(shí)別方法中,基于卷積神經(jīng)網(wǎng)絡(luò)的方法能精確地對(duì)骨架序列進(jìn)行時(shí)空建模,但是所采用的模型參數(shù)量較大,并且需要用大型圖像分類(lèi)數(shù)據(jù)庫(kù)預(yù)訓(xùn)練,這對(duì)硬件的存儲(chǔ)和計(jì)算性能帶來(lái)了挑戰(zhàn)。此外,人人交互行為作為人體行為的一個(gè)子集,沒(méi)有被針對(duì)性地建模,因此人人交互行為識(shí)別的準(zhǔn)確度還有待提升。針對(duì)上述問(wèn)題,本文提出了一種輕量型的人人交互行為識(shí)別方法,能在占用極少參數(shù)量且無(wú)需預(yù)訓(xùn)練的情況下精確地識(shí)別人人交互行為。本文主要工作如下:首先,本文使用從深度相機(jī)獲取的三維骨架數(shù)據(jù)進(jìn)行行為識(shí)別。針對(duì)行為識(shí)別模型參數(shù)量大的問(wèn)題,本文以極少的參數(shù)構(gòu)建了一種輕量型卷積神經(jīng)網(wǎng)絡(luò)用于人人交互行為識(shí)別,該網(wǎng)絡(luò)包含特征提取網(wǎng)絡(luò)、交互特征學(xué)習(xí)模塊以及行為分類(lèi)模塊。為了提取骨架序列中人體行為的時(shí)空特征,本文首先將骨架序...
【文章頁(yè)數(shù)】:81 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
本文編號(hào):4001480
【文章頁(yè)數(shù)】:81 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖4.3PCM可視化結(jié)果圖(a)“右手肘”關(guān)節(jié)點(diǎn)PCM(b)“右手腕”關(guān)節(jié)點(diǎn)PCM
圖4.6FlowNet2.0[6]網(wǎng)絡(luò)結(jié)構(gòu)示意圖
本文編號(hào):4001480
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/4001480.html
最近更新
教材專著