基于Kinect的人體步態(tài)跟蹤與識別技術(shù)
本文關(guān)鍵詞:基于Kinect的人體步態(tài)跟蹤與識別技術(shù)
更多相關(guān)文章: Kinect 步態(tài)跟蹤 步態(tài)識別 骨骼模型
【摘要】:隨著科學(xué)技術(shù)地不斷發(fā)展與進(jìn)步,虛擬現(xiàn)實技術(shù)越來越受到人們廣泛的關(guān)注,它廣泛地應(yīng)用于工業(yè)仿真、虛擬漫游、游戲、醫(yī)學(xué)、軍事航天等各個領(lǐng)域。尤其在虛擬漫游領(lǐng)域,因其強烈的視覺沖擊和豐富的互動性,使其備受青睞,不過目前許多虛擬漫游的方式還只是通過虛擬眼鏡、頭盔、手套等設(shè)備來滿足人們的感官,而對于人體行走的互動較少。本文在參閱了大量文獻(xiàn)的基礎(chǔ)上,提出一種踏板式的行走裝置方案,通過視頻設(shè)備捕捉人體的步態(tài)運動,將運動的信息同步地傳輸給行走裝置和虛擬世界中的角色,使其達(dá)到三者的同步運動。主要研究如何實時捕捉和識別人體的步態(tài)運動,將運動信息同步地傳輸給虛擬人模型,實現(xiàn)用戶與模型的同步運動。首先,本文對人體步態(tài)運動的捕捉方式展開調(diào)查與研究,提出了一種基于Kinect的人體步態(tài)跟蹤與識別方法,分析了Kinect設(shè)備的功能和Kinect for Windows SDK的體系架構(gòu),通過Kinect獲取了人體步態(tài)運動的深度圖像,利用背景差分法將人體與背景進(jìn)行分離,得到單一的人體深度圖像。其次,本文根據(jù)粒子濾波算法的原理,設(shè)計了基于骨骼模型匹配的步態(tài)跟蹤方法,根據(jù)初始幀圖像的匹配,確定骨骼模型每個關(guān)節(jié)點的初始位置,結(jié)合人體步態(tài)運動規(guī)律,利用粒子濾波算法對骨骼關(guān)節(jié)點的位置進(jìn)行預(yù)測,從而實現(xiàn)骨骼模型與圖像的實時匹配。與此同時,本文還提出一種基于模板匹配算法的步態(tài)跟蹤方法,利用普通攝像機進(jìn)行拍攝,在人體足部設(shè)定兩個帶有顏色的特征標(biāo)記點,通過捕捉兩個標(biāo)記點的運動實現(xiàn)人體步態(tài)跟蹤。本文根據(jù)骨骼模型,提出將人體髖關(guān)節(jié)、膝關(guān)節(jié)、踝關(guān)節(jié)的角度關(guān)于時間的變化函數(shù)作為人體步態(tài)運動的特征,利用改進(jìn)的動態(tài)時間規(guī)整算法對左轉(zhuǎn)彎、右轉(zhuǎn)彎和上下樓梯四種步態(tài)運動姿勢進(jìn)行識別,并對Kinect捕獲的關(guān)節(jié)點數(shù)據(jù)進(jìn)行了分析與精度驗證。最后,本文通過3ds Max建立了一個與Kinect骨骼模型同等比例的虛擬人模型,并在Unity 3d中對虛擬人模型的運動腳本進(jìn)行設(shè)計,使虛擬人模型的骨骼節(jié)點可以實時地獲取Kinect捕捉的節(jié)點數(shù)據(jù),從而實現(xiàn)用戶與虛擬人模型的同步運動。
【關(guān)鍵詞】:Kinect 步態(tài)跟蹤 步態(tài)識別 骨骼模型
【學(xué)位授予單位】:山東大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP391.41
【目錄】:
- 摘要9-11
- ABSTRACT11-13
- 第一章 緒論13-23
- 1.1 課題研究的背景及意義13-14
- 1.2 國內(nèi)外研究現(xiàn)狀14-19
- 1.3 論文的主要研究內(nèi)容19-20
- 1.4 論文的組織結(jié)構(gòu)20-23
- 第二章 步態(tài)系統(tǒng)結(jié)構(gòu)及預(yù)處理23-33
- 2.1 引言23
- 2.2 視頻捕捉設(shè)備概述23-26
- 2.2.1 Kinect2.0簡介23-24
- 2.2.2 Kinect for Windows SDK平臺簡介24-25
- 2.2.3 Kinect for Windows SDK組織架構(gòu)25-26
- 2.3 深度圖像26-28
- 2.3.1 深度圖像表示與數(shù)據(jù)結(jié)構(gòu)26-27
- 2.3.2 深度圖像成像原理27-28
- 2.4 提取運動目標(biāo)28-31
- 2.5 章節(jié)小結(jié)31-33
- 第三章 人體步態(tài)運動跟蹤33-43
- 3.1 粒子濾波33-35
- 3.1.1 粒子濾波理論33-34
- 3.1.2 粒子濾波基本過程34-35
- 3.2 基于粒子濾波的目標(biāo)跟蹤35-38
- 3.3 基于模板匹配的目標(biāo)跟蹤38-41
- 3.3.1 模板匹配原理38-39
- 3.3.2 實例演示39-41
- 3.4 章節(jié)小結(jié)41-43
- 第四章 人體步態(tài)運動識別43-61
- 4.1 基于動態(tài)時間規(guī)整的步態(tài)識別算法43-47
- 4.1.1 基本原理43-45
- 4.1.2 規(guī)整路徑優(yōu)化策略45-46
- 4.1.3 全局約束的路徑優(yōu)化46-47
- 4.2 步態(tài)運動數(shù)據(jù)的獲取與驗證47-53
- 4.2.1 骨骼數(shù)據(jù)的表示與獲取47-49
- 4.2.2 Kinect精度驗證49-53
- 4.3 人體步態(tài)特征提取53-54
- 4.4 實驗流程與結(jié)果54-60
- 4.5 章節(jié)小結(jié)60-61
- 第五章 虛擬模型同步演示61-69
- 5.1 虛擬模型的建立61-63
- 5.2 實例演示63-67
- 5.3 章節(jié)小結(jié)67-69
- 第六章 總結(jié)和展望69-71
- 6.1 總結(jié)69
- 6.2 展望69-71
- 參考文獻(xiàn)71-75
- 致謝75-76
- 學(xué)位論文評閱及答辯情況表76
【相似文獻(xiàn)】
中國期刊全文數(shù)據(jù)庫 前10條
1 田光見,趙榮椿;基于傅立葉描繪子的步態(tài)識別[J];計算機應(yīng)用;2004年11期
2 田光見;趙榮椿;;一種步態(tài)識別方法[J];計算機科學(xué);2005年09期
3 洪文,黃鳳崗,蘇菡;基于連續(xù)隱馬爾科夫模型的步態(tài)識別[J];應(yīng)用科技;2005年02期
4 劉玉棟,蘇開娜,馬麗;一種基于模型的步態(tài)識別方法[J];計算機工程與應(yīng)用;2005年09期
5 田光見,趙榮椿;步態(tài)識別綜述[J];計算機應(yīng)用研究;2005年05期
6 趙子健;吳曉娟;;基于近似時空切片向量的步態(tài)識別方法研究[J];模式識別與人工智能;2005年05期
7 趙黎麗;侯正信;;步態(tài)識別問題的特點及研究現(xiàn)狀[J];中國圖象圖形學(xué)報;2006年02期
8 許文芳;吳清江;;步態(tài)識別綜述[J];福建電腦;2007年01期
9 彭彰;吳曉娟;楊軍;;基于肢體長度參數(shù)的多視角步態(tài)識別算法[J];自動化學(xué)報;2007年02期
10 韓旭;劉冀偉;么鍵;那幼超;王志良;;一種改進(jìn)的步態(tài)識別方法[J];電子器件;2007年04期
中國重要會議論文全文數(shù)據(jù)庫 前8條
1 鄧玉春;劉世平;;自動步態(tài)識別方法研究綜述[A];2007通信理論與技術(shù)新發(fā)展——第十二屆全國青年通信學(xué)術(shù)會議論文集(上冊)[C];2007年
2 何衛(wèi)華;李平;文玉梅;葉波;袁海軍;;運用下肢關(guān)節(jié)角度信息進(jìn)行步態(tài)識別[A];第十三屆全國圖象圖形學(xué)學(xué)術(shù)會議論文集[C];2006年
3 肖軍;蘇潔;鄭波;賈鵬宇;;智能仿生腿在不同路況下的步態(tài)識別系統(tǒng)研究[A];2007中國控制與決策學(xué)術(shù)年會論文集[C];2007年
4 張聰;明東;萬柏坤;;基于小波描述子和人體骨架模型的多視角融合步態(tài)識別[A];天津市生物醫(yī)學(xué)工程學(xué)會第29屆學(xué)術(shù)年會暨首屆生物醫(yī)學(xué)工程前沿科學(xué)研討會論文集[C];2009年
5 朱京紅;方帥;高明;方杰;;基于人工免疫模型的步態(tài)識別方法[A];第十四屆全國圖象圖形學(xué)學(xué)術(shù)會議論文集[C];2008年
6 葉波;文玉梅;李平;;基于核主元分析和支持向量機的步態(tài)識別算法[A];第十三屆全國圖象圖形學(xué)學(xué)術(shù)會議論文集[C];2006年
7 王科俊;閻濤;呂卓紋;;基于耦合度量學(xué)習(xí)的特征級融合方法及在步態(tài)識別中的應(yīng)用[A];2013年中國智能自動化學(xué)術(shù)會議論文集(第三分冊)[C];2013年
8 王科俊;賁f[燁;;基于線性插值的特征模板構(gòu)造的步態(tài)識別算法框架[A];2009年中國智能自動化會議論文集(第七分冊)[南京理工大學(xué)學(xué)報(增刊)][C];2009年
中國重要報紙全文數(shù)據(jù)庫 前2條
1 編譯 劉東征;新型“步態(tài)密碼”給手機加把鎖[N];北京科技報;2005年
2 若水;分析步態(tài)識別身份[N];光明日報;2003年
中國博士學(xué)位論文全文數(shù)據(jù)庫 前10條
1 劉磊;基于多源信息的步態(tài)識別算法研究[D];河北工業(yè)大學(xué);2015年
2 余杰;基于視頻的人體目標(biāo)跟蹤與識別技術(shù)研究[D];電子科技大學(xué);2016年
3 賁f[燁;基于人體運動分析的步態(tài)識別算法研究[D];哈爾濱工程大學(xué);2010年
4 曾瑋;基于確定學(xué)習(xí)理論的人體步態(tài)識別研究[D];華南理工大學(xué);2012年
5 張元元;基于序列統(tǒng)計特性的步態(tài)識別算法研究[D];山東大學(xué);2010年
6 趙國英;基于視頻的步態(tài)識別[D];中國科學(xué)院研究生院(計算技術(shù)研究所);2005年
7 薛召軍;基于小波變換和支持向量機相結(jié)合的步態(tài)識別新方法研究[D];天津大學(xué);2007年
8 胡榮;人體步態(tài)識別研究[D];華中科技大學(xué);2010年
9 顧磊;基于圖像序列的人體步態(tài)識別方法研究[D];南京理工大學(xué);2008年
10 劉海濤;基于立體視覺的步態(tài)識別研究[D];中國科學(xué)技術(shù)大學(xué);2010年
中國碩士學(xué)位論文全文數(shù)據(jù)庫 前10條
1 楊楠;基于視觸覺多特征融合的步態(tài)識別方法研究[D];河北工業(yè)大學(xué);2015年
2 周浩理;復(fù)雜背景下多特征融合的人體步態(tài)識別研究[D];海南大學(xué);2016年
3 李雪燕;視頻監(jiān)控中人體步態(tài)識別方法研究[D];長春工業(yè)大學(xué);2016年
4 潘秀芳;基于手機的步態(tài)識別研究[D];燕山大學(xué);2016年
5 羅璨;存在干擾因素情況下的步態(tài)識別統(tǒng)動力學(xué)初步探索[D];蘇州大學(xué);2016年
6 張鵬;耦合度量學(xué)習(xí)理論及其在步態(tài)識別中的應(yīng)用研究[D];山東大學(xué);2016年
7 沈小康;基于Kinect的人體步態(tài)跟蹤與識別技術(shù)[D];山東大學(xué);2016年
8 周潔;基于姿態(tài)與壓力信息的步態(tài)識別方法[D];西南交通大學(xué);2016年
9 陳慶峰;基于確定學(xué)習(xí)理論的步態(tài)分析及在神經(jīng)退行性疾病分類中的應(yīng)用[D];華南理工大學(xué);2016年
10 陳玲;基于視頻流的步態(tài)識別系統(tǒng)研究與實現(xiàn)[D];暨南大學(xué);2016年
,本文編號:1043166
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1043166.html