基于軌跡時(shí)空匹配的動(dòng)作識(shí)別算法研究
本文關(guān)鍵詞:基于軌跡時(shí)空匹配的動(dòng)作識(shí)別算法研究 出處:《華東師范大學(xué)》2017年碩士論文 論文類(lèi)型:學(xué)位論文
更多相關(guān)文章: 動(dòng)作識(shí)別 密集軌跡 特征匹配
【摘要】:動(dòng)作識(shí)別在諸多領(lǐng)域有廣泛的潛在應(yīng)用,例如智能視頻監(jiān)控,視頻檢索,人機(jī)交互等,近年來(lái)已經(jīng)成為計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)研究熱點(diǎn)。盡管許多學(xué)者在這方面已經(jīng)做了非常多的工作,然而它仍然是計(jì)算機(jī)視覺(jué)的一個(gè)難點(diǎn)。首先,存在因運(yùn)動(dòng)速度的不同,視角變化和背景噪聲引起的巨大的類(lèi)內(nèi)變化。其次,類(lèi)別的定義建立在動(dòng)作的概念和語(yǔ)義之上,底層視頻特征和高級(jí)語(yǔ)義之間存在的偏差使得分類(lèi)變得非常困難。在動(dòng)作識(shí)別領(lǐng)域已經(jīng)出現(xiàn)非常多優(yōu)秀的方法,其中密集軌跡作為一種高魯棒性的底層特征和Fisher Vector作為一個(gè)通用的組合被廣泛應(yīng)用于動(dòng)作識(shí)別,并在許多公共數(shù)據(jù)集上取得了優(yōu)異的表現(xiàn)。它構(gòu)建基于高斯混合模型(Gaussian Mixture Model,GMM)的字典來(lái)表示視頻中軌跡的分布,然后將其用于對(duì)給定視頻的軌跡進(jìn)行編碼。由于對(duì)視頻中的所有軌跡進(jìn)行無(wú)序編碼,從而忽略了不同軌跡之間的時(shí)空位置關(guān)系。為了彌補(bǔ)時(shí)空信息的丟失,本文提出了兩種不同軌跡匹配算法來(lái)捕獲丟失的時(shí)空位置關(guān)系,即:基于KNN的特征匹配策略和基于堆積的特征匹配策略。首先,我們定義了一個(gè)軌跡距離來(lái)衡量?jī)蓷l軌跡之間的關(guān)系。然后,執(zhí)行本文提出的特征匹配策略對(duì)軌跡進(jìn)行匹配,對(duì)于匹配之后的成對(duì)軌跡,我們采用平均池策略(average pooling strategy)來(lái)進(jìn)行特征融合得到本文提出的時(shí)空配對(duì)軌跡(Space-time Pairwise Trajectories,SPT)。然后用 GMM 和 Fisher Vector 對(duì) SPT進(jìn)行編碼。SPT包含了每條軌跡周?chē)木植繒r(shí)空信息,從而使得SPT比原始的密集軌跡的特征更具有判別性。我們?cè)谒膫(gè)被廣泛應(yīng)用的公共數(shù)據(jù)集(Olympic Sports,HMDB51,UCF50,UCF101)上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果證明我們提出的SPT的表現(xiàn)優(yōu)于當(dāng)前優(yōu)秀的方法。
[Abstract]:Action recognition has potential application in a wide variety of fields, such as intelligent video surveillance, video retrieval, human-computer interaction, in recent years has become a hot research topic in the field of computer vision. Although many scholars have done a lot of work in this area, but it is still a difficult problem in computer vision. First of all, due to different velocities, caused by the change of angle change and background noise of the huge class. Secondly, the definitions of the categories based on concepts and semantic actions, partial job exists between the bottom of the video features and the high-level semantic classification have become very difficult. In the field of action recognition has been a very good number of methods, including dense trajectories as low-level features and Fisher Vector a high robustness as a generic combination is widely used in action recognition, and in many public data sets Excellent performance. It builds the Gauss mixture model based on (Gaussian Mixture Model, GMM) the dictionary said in the video distribution path, which is then used for a given video encoding. Because of the track of the disorder on all track in video encoding, which ignores the relationship between different space-time position trajectory for the missing. For temporal information, this paper presents two different path matching algorithm to capture the spatial position relation, namely: loss of KNN feature matching strategy and matching based on the feature of accumulation based on strategy. First, we define a path to measure the distance between two paths. Then, implementation of the proposed feature matching strategy of trajectory matching for paired trajectory matching after, we use the average pool strategy (average pooling strategy) for feature fusion of the time The empty pair (Space-time Pairwise Trajectories, SPT locus). Then GMM and Fisher Vector of SPT encoding.SPT contains local spatio-temporal information around each trajectory, so that the SPT is more discriminative than characteristic trajectory. The original intensive public data in four widely used set (Olympic Sports, HMDB51, UCF50, UCF101) on the experiment, the experimental results show that our proposed method performs better than the current SPT good.
【學(xué)位授予單位】:華東師范大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類(lèi)號(hào)】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[J];自動(dòng)化與信息工程;2009年04期
2 胡雅琴;;動(dòng)作識(shí)別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期
3 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機(jī)機(jī)動(dòng)飛行動(dòng)作識(shí)別知識(shí)庫(kù)的建立[J];計(jì)算機(jī)仿真;2005年04期
4 程祥;;人體動(dòng)作識(shí)別的研究[J];電腦知識(shí)與技術(shù);2006年20期
5 黃飛躍;徐光yP;;視角無(wú)關(guān)的動(dòng)作識(shí)別[J];軟件學(xué)報(bào);2008年07期
6 徐光yP;曹媛媛;;動(dòng)作識(shí)別與行為理解綜述[J];中國(guó)圖象圖形學(xué)報(bào);2009年02期
7 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別[J];現(xiàn)代科學(xué)儀器;2012年02期
8 周艷青;王磊;;基于視覺(jué)的人體動(dòng)作識(shí)別綜述[J];山東輕工業(yè)學(xué)院學(xué)報(bào)(自然科學(xué)版);2012年01期
9 曹琨;;基于檢索表的實(shí)時(shí)動(dòng)作識(shí)別技術(shù)研究[J];中外企業(yè)家;2014年05期
10 劉博;安建成;;基于關(guān)鍵姿勢(shì)的人體動(dòng)作識(shí)別[J];電視技術(shù);2014年05期
相關(guān)會(huì)議論文 前7條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年
2 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年
3 葉喜勇;陶霖密;王國(guó)建;邸慧軍;;視角無(wú)關(guān)的人體軀干動(dòng)作識(shí)別[A];第六屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2010)、第19屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2010)、第6屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2010)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2010)論文集[C];2010年
4 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年
5 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動(dòng)作的識(shí)別與理解[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年
6 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年
7 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號(hào)動(dòng)作識(shí)別[A];2013年中國(guó)智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊(cè))[C];2013年
相關(guān)重要報(bào)紙文章 前2條
1 本報(bào)記者 陳丹;人與機(jī)器的“對(duì)話”[N];科技日?qǐng)?bào);2010年
2 ;凌空敲鍵盤(pán)?無(wú)線計(jì)算機(jī)手套問(wèn)世[N];中國(guó)計(jì)算機(jī)報(bào);2004年
相關(guān)博士學(xué)位論文 前10條
1 諶先敢;現(xiàn)實(shí)環(huán)境下的人體動(dòng)作識(shí)別[D];武漢大學(xué);2012年
2 陳淵博;視頻序列中的人體動(dòng)作識(shí)別[D];北京郵電大學(xué);2015年
3 劉翠微;視頻中人的動(dòng)作分析與理解[D];北京理工大學(xué);2015年
4 陳萌;基于李代數(shù)高斯表示的動(dòng)作識(shí)別方法研究[D];華中科技大學(xué);2016年
5 李擬s,
本文編號(hào):1385423
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/1385423.html