基于Kinect的人體動(dòng)作識(shí)別技術(shù)研究
本文選題:動(dòng)作識(shí)別 切入點(diǎn):譜聚類(lèi) 出處:《重慶大學(xué)》2015年碩士論文 論文類(lèi)型:學(xué)位論文
【摘要】:隨著計(jì)算機(jī)視覺(jué)技術(shù)應(yīng)用需求的不斷提高,對(duì)人類(lèi)行為理解的研究顯得至關(guān)重要。而人體動(dòng)作識(shí)別在計(jì)算機(jī)視覺(jué)領(lǐng)域,尤其是在智能監(jiān)控、人機(jī)交互、虛擬現(xiàn)實(shí)、運(yùn)動(dòng)分析等方面有著廣闊的應(yīng)用前景。因此,人體動(dòng)作識(shí)別的研究也受到越來(lái)越多的關(guān)注。同時(shí),伴隨著深度攝像頭的出現(xiàn),人體動(dòng)作識(shí)別的研究被推向了一個(gè)新的高度。當(dāng)前的很多研究都是基于預(yù)先分割的視頻流進(jìn)行人體動(dòng)作識(shí)別的,無(wú)法進(jìn)行在線的識(shí)別。在總結(jié)國(guó)內(nèi)外對(duì)人體動(dòng)作識(shí)別的基礎(chǔ)上,本文利用譜聚類(lèi)和DTW算法對(duì)Kinect骨骼跟蹤技術(shù)捕獲的人體骨骼數(shù)據(jù)進(jìn)行處理,得到基于人體各個(gè)部位的運(yùn)動(dòng)粒度的結(jié)構(gòu)化骨骼特征,然后利用聯(lián)合稀疏編碼算法對(duì)結(jié)構(gòu)化骨骼特征進(jìn)行選擇和分類(lèi)學(xué)習(xí)得到動(dòng)作模板,最后實(shí)現(xiàn)了在線的人體動(dòng)作識(shí)別。下面具體介紹一下本文的研究?jī)?nèi)容:第一步,在微軟的MSRC-12 Kinect Gesture Dataset數(shù)據(jù)集基礎(chǔ)上,根據(jù)人體動(dòng)作表示方式將其轉(zhuǎn)化為動(dòng)作數(shù)據(jù)流,為后面模板字典的生成和特征提取做好準(zhǔn)備。第二步,利用機(jī)器學(xué)習(xí)的譜聚類(lèi)算法和改進(jìn)的動(dòng)態(tài)時(shí)間規(guī)整算法(DTW)對(duì)第一步生成的動(dòng)作數(shù)據(jù)流進(jìn)行學(xué)習(xí)并生成模板字典。第三步,對(duì)動(dòng)作數(shù)據(jù)流中每一幀的數(shù)據(jù)進(jìn)行結(jié)構(gòu)化骨骼特征提取,其中提取的特征是通過(guò)計(jì)算幀末尾的最佳擬合子序列與模板字典之間的距離得到的。第四步,利用聯(lián)合稀疏編碼算法對(duì)特征進(jìn)行選擇,從而得到從結(jié)構(gòu)化骨骼特征到動(dòng)作標(biāo)簽的變換矩陣,從而得到動(dòng)作模板。第五步,對(duì)在線的骨骼數(shù)據(jù)進(jìn)行預(yù)處理,以排除噪聲的干擾。第六步,利用第一步的方法將在線的骨骼數(shù)據(jù)轉(zhuǎn)換為動(dòng)作數(shù)據(jù)流,然后利用前面第三步對(duì)每一幀的數(shù)據(jù)進(jìn)行特征提取。第七步,通過(guò)第四步生成的變換矩陣,將第六步生成的特征映射到動(dòng)作標(biāo)簽,從而識(shí)別出在線的人體動(dòng)作。本文主要面臨的挑戰(zhàn)有兩個(gè):(1)如何在未分割的動(dòng)作數(shù)據(jù)流中識(shí)別人體動(dòng)作。(2)如何確定是表現(xiàn)出不同風(fēng)格的同一個(gè)動(dòng)作,還是兩個(gè)不同的動(dòng)作。本文采用一種有效的結(jié)構(gòu)化骨骼特征提取和動(dòng)態(tài)匹配方法為每一幀骨骼數(shù)據(jù)構(gòu)造一個(gè)特征向量,從而提高了每個(gè)動(dòng)作類(lèi)別之間的敏感度,從而解決了上面兩個(gè)問(wèn)題,實(shí)現(xiàn)了對(duì)在線人體動(dòng)作的識(shí)別。本文的創(chuàng)新點(diǎn)在于:在模板字典的生成和特征提取階段,本文采用改進(jìn)的DTW算法,從而增加了有效模板的數(shù)量,提高了在線識(shí)別的效率。而且在在線識(shí)別階段,本文對(duì)在線的骨骼數(shù)據(jù)進(jìn)行預(yù)處理,把不感興趣的和錯(cuò)誤的骨骼數(shù)據(jù)過(guò)濾掉,有效地避免了噪聲對(duì)識(shí)別的干擾。
[Abstract]:With the development of the application of computer vision technology, it is very important to study the understanding of human behavior, and the recognition of human body action is in the field of computer vision, especially in the field of intelligent monitoring, human-computer interaction, virtual reality, etc. Motion analysis has a broad application prospect. Therefore, the research of human motion recognition has attracted more and more attention. At the same time, with the appearance of depth camera, The research of human motion recognition has been pushed to a new height. At present, many researches are based on pre-segmented video stream for human motion recognition, which can not be recognized online. On the basis of summing up the recognition of human action at home and abroad, In this paper, we use spectral clustering and DTW algorithm to process human skeleton data captured by Kinect bone tracking technology, and obtain structured skeletal features based on moving granularity of different parts of human body. Then we use the joint sparse coding algorithm to select and classify the structural bone features to get the action template, and finally realize the online human action recognition. Based on Microsoft's MSRC-12 Kinect Gesture Dataset dataset, it is transformed into action data stream according to human action representation, which is ready for the generation of template dictionary and feature extraction. We use the spectral clustering algorithm of machine learning and the improved dynamic time warping algorithm (DTW) to study the action data stream generated by the first step and generate the template dictionary. Structural skeletal feature extraction is carried out for each frame of data in the action data stream, in which the extracted features are obtained by calculating the distance between the best fitting sub-sequence at the end of the frame and the template dictionary. Using the joint sparse coding algorithm to select the features, the transformation matrix from the structural bone features to the action tags is obtained, and the action template. 5th steps are obtained to preprocess the online bone data. In order to eliminate noise interference. 6th steps, using the method of the first step to convert online skeletal data into action data flow, and then using the previous third step to extract the features of each frame data. 7th steps, Through the transformation matrix generated by 4th steps, the feature generated in 6th steps is mapped to the action label. The main challenges in this paper are two: 1) how to recognize human action in an undivided data stream of actions, and how to determine that it is the same action with different styles. In this paper, an effective structured skeletal feature extraction and dynamic matching method is used to construct a feature vector for each frame of skeletal data, which improves the sensitivity of each action category. The innovation of this paper lies in: in the stage of template dictionary generation and feature extraction, the improved DTW algorithm is used to increase the number of effective templates. The efficiency of on-line recognition is improved. In the stage of on-line recognition, the on-line bone data is preprocessed to filter out the uninteresting and incorrect bone data, which effectively avoids the interference of noise to the recognition.
【學(xué)位授予單位】:重慶大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2015
【分類(lèi)號(hào)】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 胡雅琴;;動(dòng)作識(shí)別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期
2 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機(jī)機(jī)動(dòng)飛行動(dòng)作識(shí)別知識(shí)庫(kù)的建立[J];計(jì)算機(jī)仿真;2005年04期
3 程祥;;人體動(dòng)作識(shí)別的研究[J];電腦知識(shí)與技術(shù);2006年20期
4 黃飛躍;徐光yP;;視角無(wú)關(guān)的動(dòng)作識(shí)別[J];軟件學(xué)報(bào);2008年07期
5 徐光yP;曹媛媛;;動(dòng)作識(shí)別與行為理解綜述[J];中國(guó)圖象圖形學(xué)報(bào);2009年02期
6 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別[J];現(xiàn)代科學(xué)儀器;2012年02期
7 周艷青;王磊;;基于視覺(jué)的人體動(dòng)作識(shí)別綜述[J];山東輕工業(yè)學(xué)院學(xué)報(bào)(自然科學(xué)版);2012年01期
8 曹琨;;基于檢索表的實(shí)時(shí)動(dòng)作識(shí)別技術(shù)研究[J];中外企業(yè)家;2014年05期
9 劉博;安建成;;基于關(guān)鍵姿勢(shì)的人體動(dòng)作識(shí)別[J];電視技術(shù);2014年05期
10 王燕;張紹武;凌志剛;潘泉;;基于圖嵌入線性拓展方法的人體動(dòng)作識(shí)別研究[J];計(jì)算機(jī)仿真;2008年10期
相關(guān)會(huì)議論文 前7條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年
2 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年
3 葉喜勇;陶霖密;王國(guó)建;邸慧軍;;視角無(wú)關(guān)的人體軀干動(dòng)作識(shí)別[A];第六屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2010)、第19屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2010)、第6屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2010)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2010)論文集[C];2010年
4 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年
5 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動(dòng)作的識(shí)別與理解[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年
6 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年
7 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號(hào)動(dòng)作識(shí)別[A];2013年中國(guó)智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊(cè))[C];2013年
相關(guān)重要報(bào)紙文章 前2條
1 本報(bào)記者 陳丹;人與機(jī)器的“對(duì)話”[N];科技日?qǐng)?bào);2010年
2 ;凌空敲鍵盤(pán)?無(wú)線計(jì)算機(jī)手套問(wèn)世[N];中國(guó)計(jì)算機(jī)報(bào);2004年
相關(guān)博士學(xué)位論文 前10條
1 諶先敢;現(xiàn)實(shí)環(huán)境下的人體動(dòng)作識(shí)別[D];武漢大學(xué);2012年
2 陳淵博;視頻序列中的人體動(dòng)作識(shí)別[D];北京郵電大學(xué);2015年
3 劉翠微;視頻中人的動(dòng)作分析與理解[D];北京理工大學(xué);2015年
4 任海兵;非特定人自然的人體動(dòng)作識(shí)別[D];清華大學(xué);2003年
5 成娟;基于表面肌電和加速度信號(hào)融合的動(dòng)作識(shí)別和人體行為分析研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2013年
6 鄧小宇;面向智能視頻監(jiān)控的前景提取和動(dòng)作識(shí)別技術(shù)研究[D];浙江大學(xué);2012年
7 鄧?yán)?三維人體動(dòng)作識(shí)別及其在交互舞蹈系統(tǒng)上的應(yīng)用[D];中國(guó)科學(xué)技術(shù)大學(xué);2012年
8 曹雛清;面向多方式人際交互的肢體動(dòng)作識(shí)別研究[D];哈爾濱工業(yè)大學(xué);2012年
9 吳心筱;圖像序列中人的姿態(tài)估計(jì)與動(dòng)作識(shí)別[D];北京理工大學(xué);2010年
10 蔡美玲;三維人體運(yùn)動(dòng)分析與動(dòng)作識(shí)別方法[D];中南大學(xué);2013年
相關(guān)碩士學(xué)位論文 前10條
1 張思亮;體感交互系統(tǒng)的人體動(dòng)作識(shí)別研究[D];華南理工大學(xué);2015年
2 應(yīng)銳;基于關(guān)鍵幀及原語(yǔ)的人體動(dòng)作識(shí)別研究[D];復(fù)旦大學(xué);2014年
3 陳凌琛;基于Kinect的動(dòng)作識(shí)別研究及在教學(xué)中的應(yīng)用[D];昆明理工大學(xué);2015年
4 張孫培;基于關(guān)節(jié)數(shù)據(jù)和極限學(xué)習(xí)機(jī)的人體動(dòng)作識(shí)別[D];南京理工大學(xué);2015年
5 邱春明;基于運(yùn)動(dòng)幅度變化率的視頻人體動(dòng)作識(shí)別[D];河北大學(xué);2015年
6 康欽謀;視頻人體動(dòng)作識(shí)別算法研究[D];電子科技大學(xué);2015年
7 劉海軍;基于時(shí)空流形學(xué)習(xí)的人體動(dòng)作識(shí)別[D];電子科技大學(xué);2014年
8 梁燕;交互應(yīng)用中的實(shí)時(shí)動(dòng)作識(shí)別[D];北京理工大學(xué);2015年
9 冷晶晶;基于光編碼技術(shù)的人員入侵智能報(bào)警系統(tǒng)[D];西安石油大學(xué);2015年
10 馬葉涵;基于Kinect的辦公健康分析系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D];哈爾濱工業(yè)大學(xué);2015年
,本文編號(hào):1572291
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/1572291.html