天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于動(dòng)態(tài)特征的跨視角步態(tài)識(shí)別研究

發(fā)布時(shí)間:2021-03-09 01:45
  步態(tài)特征是一種生物特征,它具有其他生物特征不具備的優(yōu)勢(shì),如可遠(yuǎn)距離獲取、不易偽裝和非接觸即可獲得等。在監(jiān)控場(chǎng)景下,由于攝像頭與行人的距離較遠(yuǎn),不僅常用的指紋和虹膜特征都無(wú)法獲取,人臉特征在較遠(yuǎn)的距離提取出來(lái)也會(huì)很模糊。很多的研究者已經(jīng)證明了步態(tài)識(shí)別在遠(yuǎn)距離的情況下是?分有效的身份識(shí)別方法,因此步態(tài)識(shí)別技術(shù)具有廣泛的應(yīng)用前景。然而在實(shí)際場(chǎng)景下,步態(tài)識(shí)別仍然面臨著各種挑戰(zhàn),基于輪廓的步態(tài)特征受視角、衣著和攜帶物品等情況影響比較大,其原因這些情況往往導(dǎo)致行人步態(tài)輪廓的扭曲和變形;而基于模型的步態(tài)特征對(duì)視角、衣著和攜帶物品等情況下有比較好的魯棒性,但因獲取精準(zhǔn)的人體姿態(tài)還具有一定的挑戰(zhàn),其識(shí)別率往往不如基于輪廓的方法。在總結(jié)和分析前人研究的基礎(chǔ)上,本文針對(duì)步態(tài)識(shí)別中存在的一系列問(wèn)題,視角變化下準(zhǔn)確率極大的降低,我們提出了一種新穎的PoseGait步態(tài)識(shí)別方法,該方法在服裝和攜帶條件下都很魯棒。通過(guò)加入人類先驗(yàn)知識(shí)的時(shí)空特征也被設(shè)計(jì)加入提高識(shí)別率。該方法在兩個(gè)大型數(shù)據(jù)集CASIA B和CASIA E上進(jìn)行評(píng)估。實(shí)驗(yàn)結(jié)果表明,所提出的方法可以實(shí)現(xiàn)最先進(jìn)的性能,并且即使只使用簡(jiǎn)潔的CNN模型,對(duì)于觀... 

【文章來(lái)源】:深圳大學(xué)廣東省

【文章頁(yè)數(shù)】:65 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于動(dòng)態(tài)特征的跨視角步態(tài)識(shí)別研究


從左到右:步態(tài)輪廓序列,步態(tài)能量圖GEI,計(jì)時(shí)步態(tài)圖像CGIs

自動(dòng)編碼,角度,對(duì)角,人體


基于動(dòng)態(tài)特征的跨視角步態(tài)識(shí)別研究圖2-2堆疊漸進(jìn)式自動(dòng)編碼器來(lái)對(duì)角度進(jìn)行轉(zhuǎn)換,其每一層轉(zhuǎn)換一個(gè)較小的角度,經(jīng)過(guò)幾層以后所有GEI可以被轉(zhuǎn)化為側(cè)面角度。有挑戰(zhàn)性的任務(wù)。BenAbdelkader[15]的工作是第一個(gè)基于模型的特征表示方法,使用個(gè)體的結(jié)構(gòu)步幅參數(shù)來(lái)模擬人體。即以米為單位的步幅長(zhǎng)度和步調(diào)(每分鐘步數(shù))作為兩個(gè)參數(shù),旨在擬合參數(shù)作為步態(tài)特征進(jìn)行識(shí)別。大多數(shù)基于模型的特征表示方法會(huì)模擬整個(gè)人體,Yoo[16]使用通過(guò)連接從步態(tài)提取的九個(gè)身體點(diǎn)獲得的2D棍棒圖來(lái)模擬人體運(yùn)動(dòng)。Boulgouris[17]的工作也將人體分成多個(gè)部分,他們主要研究了每個(gè)部分對(duì)識(shí)別率的貢獻(xiàn)。在對(duì)整個(gè)人體進(jìn)行建模之后,通常使用基于模型的特征表示方法,在人體上使用距離或關(guān)節(jié)角度進(jìn)行步態(tài)識(shí)別。Bobick和Johnson[18]使用四個(gè)距離來(lái)模擬和描述人體,分別依次為左右腳間的距離,頭與骨盆的距離,頭和腳的距離,腳與骨盆距離。王等人[19]如圖2-3將人體分成14個(gè)部分,并在每個(gè)部分使用聯(lián)合角度軌跡來(lái)識(shí)別個(gè)體,他們還結(jié)合了Procrustes形狀分析以提高識(shí)別率。Tanawongsuwan和Bobick[18]使用關(guān)節(jié)角度模擬人體,他們從步態(tài)數(shù)據(jù)中提取關(guān)節(jié)角度,并使用關(guān)節(jié)角度的軌跡來(lái)識(shí)別個(gè)體。同時(shí),由于人腿在步態(tài)識(shí)別中起著重要作用,因此有些作品側(cè)重于腿部模型,例如Yam等人[20]對(duì)人腿進(jìn)行模擬,并用它們來(lái)分析人的步行和跑步。Dockstader等人的研究[21]也模擬了人的腿,其中腿被表示為在一點(diǎn)處連接的許多粗線。Cunado等人[22]使用VelocityHough變換(VHT)則從腿和運(yùn)動(dòng)中提取特征。人體的骨架和關(guān)節(jié)軌跡對(duì)于照明變化和場(chǎng)景變化是具有魯棒性的的,并且由于高度8

姿勢(shì),人體模型,傳感器,算法


基于動(dòng)態(tài)特征的跨視角步態(tài)識(shí)別研究圖2-3人體模型分為14個(gè)部分精確的深度傳感器或姿勢(shì)估計(jì)算法,它們也是越來(lái)越易于獲得。對(duì)于關(guān)節(jié)特征的提取方法可以分為手工制作的基于特征的方法和深度學(xué)習(xí)方法。Kastaniotis等人[23]如圖2-4利用Kinect傳感器來(lái)提取骨架數(shù)據(jù),可以直接獲取人體關(guān)節(jié)點(diǎn)的運(yùn)動(dòng)信息。Feng[24]提出了利用人體關(guān)節(jié)的熱度圖作為步態(tài)特征。系列中的人體關(guān)節(jié)熱度圖為輸入,利用長(zhǎng)期短期記憶遞歸神經(jīng)網(wǎng)絡(luò)來(lái)提取動(dòng)態(tài)信息。但缺點(diǎn)則是這個(gè)網(wǎng)絡(luò)[24]盡管利用了LSTM去提取步態(tài)特征,缺忽略了靜態(tài)特征的提取,同時(shí)也面臨著預(yù)測(cè)精度的挑戰(zhàn)。最近深度學(xué)習(xí)的成功導(dǎo)致了基于深度學(xué)習(xí)的提取骨架建模方法的激增,例如OpenPose提出了一種實(shí)時(shí)方法來(lái)檢測(cè)圖像中的人體的2D姿勢(shì)。OpenPose[25],AlphaPose[26]等方法不僅可以從視頻中直接提取關(guān)節(jié)點(diǎn)信息,同時(shí)也能達(dá)到一個(gè)相對(duì)較好的精度。2.3基于深度學(xué)習(xí)的步態(tài)識(shí)別深度學(xué)習(xí)最近在計(jì)算機(jī)視覺領(lǐng)域中蓬勃發(fā)展。特別是深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)[27]被用來(lái)處理各種任務(wù)。CNN由于其深度和高度非線性模型而顯示出優(yōu)于傳統(tǒng)方法的壓倒性優(yōu)勢(shì),如果給出足夠的標(biāo)記訓(xùn)練數(shù)據(jù),它可以式學(xué)習(xí)豐富的特征,例如在視頻領(lǐng)域,Karpathy[28]將CNN應(yīng)用于大規(guī)模視頻分類。在提取視頻特征中,捕獲長(zhǎng)距離依賴在深度神經(jīng)網(wǎng)絡(luò)中至關(guān)重要,對(duì)于順序數(shù)據(jù)(例如,在語(yǔ)音,語(yǔ)言中),循環(huán)操作RNN是9


本文編號(hào):3072032

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3072032.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶febd8***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com