基于深度圖像數(shù)據(jù)的人體動作識別
本文選題:人體動作識別 + 深度圖像 ; 參考:《鄭州大學》2017年碩士論文
【摘要】:人體動作和行為識別在計算機視覺和模式識別等多個交叉領(lǐng)域一直以來都是一個熱門的研究課題。它有廣闊的應用前景如人機交互、智能家居、智能監(jiān)控。早期的人體動作識別研究主要針對彩色可見光攝像機錄制的視頻數(shù)據(jù),在該數(shù)據(jù)上提出了許多經(jīng)典的算法。但是由于傳統(tǒng)數(shù)據(jù)本身的局限性,這些算法容易受到光照變化等因素的影響。隨著傳感技術(shù)的發(fā)展,廉價的深度攝像機比如Kinect的出現(xiàn),為研究者解決人體動作識別中的難題提供了新的思路。深度數(shù)據(jù)不僅不容易受光照變化等因素的影響,還能額外提供場景的三維信息,這使得越來越多的學者轉(zhuǎn)向基于深度數(shù)據(jù)的動作識別算法的研究。本論文針對從深度圖像數(shù)據(jù)中識別人體動作進行研究,實現(xiàn)了多種有效的人體動作識別算法,具體內(nèi)容如下:第一,在深度圖像的基礎(chǔ)上,提出了一種動作特征描述方法。首先利用自適應深度運動圖能量來劃分時間動作序列,通過分析不同子時間段動作的姿態(tài)來獲得運動能量模型(MEM),并利用局部二值模式(LBP)對其進行編碼,得到MEM-LBP描述符來表示動作特征,經(jīng)主成分分析(PCA)降維后,送入7)2范數(shù)協(xié)同表示分類器中進行識別。在MSR Action3D和MSR Gesture3D數(shù)據(jù)庫上進行的測試分析與對比表明了該算法的有效性。第二,引入特征融合方法,在MEM的基礎(chǔ)上,提取梯度方向直方圖描述子(HOG)得到新的特征描述符,將其與MEM-LBP特征描述符進行特征層融合和決策層融合,并引入核極限學習機(KELM)對動作分類。在數(shù)據(jù)庫上的測試實驗結(jié)果表明兩種融合方法都在一定程度上提升了識別效果,并且決策層融合的效果相對更好。
[Abstract]:Human motion and behavior recognition has been a hot research topic in many intersecting fields such as computer vision and pattern recognition. It has broad application prospects such as human-computer interaction, intelligent home, intelligent monitoring. The early research on human motion recognition mainly focused on video data recorded by color visible light camera, and put forward many classical algorithms on this data. However, due to the limitation of traditional data, these algorithms are easily affected by illumination changes and other factors. With the development of sensing technology, the emergence of cheap depth cameras such as Kinect provides a new way for researchers to solve the problem of human motion recognition. Depth data is not only not easily affected by illumination and other factors, but also can provide 3D information of scene. As a result, more and more scholars turn to the research of motion recognition algorithm based on depth data. In this paper, the recognition of human motion from depth image data is studied, and a variety of effective human motion recognition algorithms are implemented. The main contents are as follows: first, based on the depth image, an action feature description method is proposed. Firstly, the adaptive depth motion map energy is used to divide the time series of actions, and the motion energy model is obtained by analyzing the posture of the actions in different sub-time periods, and the local binary mode is used to encode the motion energy model. The MEM-LBP descriptor is obtained to represent the action feature. After the principal component analysis (PCA) is used to reduce the dimensionality, the MEM-LBP descriptor is sent to the 7 ~ (2) norm cooperative representation classifier for recognition. The test results on MSR Action3D and MSR Gesture3D database show that the algorithm is effective. Secondly, the feature fusion method is introduced, based on MEM, the gradient histogram descriptor is extracted to obtain the new feature descriptor, and the new feature descriptor is fused with the MEM-LBP feature descriptor at the feature level and decision level. And the nuclear extreme learning machine (KELM) is introduced to classify the action. The experimental results on the database show that the two fusion methods improve the recognition effect to a certain extent, and the effect of decision level fusion is better.
【學位授予單位】:鄭州大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:TP391.41
【相似文獻】
相關(guān)期刊論文 前10條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動作識別方法[J];自動化與信息工程;2009年04期
2 胡雅琴;;動作識別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期
3 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機機動飛行動作識別知識庫的建立[J];計算機仿真;2005年04期
4 程祥;;人體動作識別的研究[J];電腦知識與技術(shù);2006年20期
5 黃飛躍;徐光yP;;視角無關(guān)的動作識別[J];軟件學報;2008年07期
6 徐光yP;曹媛媛;;動作識別與行為理解綜述[J];中國圖象圖形學報;2009年02期
7 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡的人體動作識別[J];現(xiàn)代科學儀器;2012年02期
8 周艷青;王磊;;基于視覺的人體動作識別綜述[J];山東輕工業(yè)學院學報(自然科學版);2012年01期
9 曹琨;;基于檢索表的實時動作識別技術(shù)研究[J];中外企業(yè)家;2014年05期
10 劉博;安建成;;基于關(guān)鍵姿勢的人體動作識別[J];電視技術(shù);2014年05期
相關(guān)會議論文 前9條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動作識別方法[A];廣州市儀器儀表學會2009年學術(shù)年會論文集[C];2010年
2 黃飛躍;徐光yP;;自然的人體動作識別[A];第三屆和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2007)論文集[C];2007年
3 葉喜勇;陶霖密;王國建;邸慧軍;;視角無關(guān)的人體軀干動作識別[A];第六屆和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2010)、第19屆全國多媒體學術(shù)會議(NCMT2010)、第6屆全國人機交互學術(shù)會議(CHCI2010)、第5屆全國普適計算學術(shù)會議(PCC2010)論文集[C];2010年
4 黃艷歡;葉少珍;;連續(xù)動作分割綜述[A];第十四屆全國圖象圖形學學術(shù)會議論文集[C];2008年
5 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動作的識別與理解[A];第三屆和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2007)論文集[C];2007年
6 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時空特征的人體動作識別[A];第十五屆全國圖象圖形學學術(shù)會議論文集[C];2010年
7 孫曉蘭;趙惠潔;祝世平;;基于深度圖像的邊緣檢測方法研究[A];2004全國光學與光電子學學術(shù)研討會、2005全國光學與光電子學學術(shù)研討會、廣西光學學會成立20周年年會論文集[C];2005年
8 徐秀英;劉卓;王博亮;;一種基于三角函數(shù)的深度圖像曲面擬合方法[A];第十二屆全國圖象圖形學學術(shù)會議論文集[C];2005年
9 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機的手部肌電信號動作識別[A];2013年中國智能自動化學術(shù)會議論文集(第五分冊)[C];2013年
相關(guān)重要報紙文章 前3條
1 本報記者 陳丹;人與機器的“對話”[N];科技日報;2010年
2 深圳商報記者 徐明天 實習生 桂馨;電視機可借助電力線上網(wǎng)[N];深圳商報;2010年
3 ;凌空敲鍵盤?無線計算機手套問世[N];中國計算機報;2004年
相關(guān)博士學位論文 前10條
1 諶先敢;現(xiàn)實環(huán)境下的人體動作識別[D];武漢大學;2012年
2 陳淵博;視頻序列中的人體動作識別[D];北京郵電大學;2015年
3 劉翠微;視頻中人的動作分析與理解[D];北京理工大學;2015年
4 陳萌;基于李代數(shù)高斯表示的動作識別方法研究[D];華中科技大學;2016年
5 李擬s,
本文編號:1805435
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1805435.html