天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

基于Kinect骨骼關(guān)節(jié)信息的視角不變步態(tài)識(shí)別方法

發(fā)布時(shí)間:2018-02-16 21:07

  本文關(guān)鍵詞: 生物特征識(shí)別 步態(tài)識(shí)別 Kinect 步態(tài)數(shù)據(jù)庫(kù) 特征融合 出處:《山東大學(xué)》2017年碩士論文 論文類型:學(xué)位論文


【摘要】:步態(tài)識(shí)別是一種利用人走路姿勢(shì)進(jìn)行人物身份識(shí)別的新興生物特征識(shí)別技術(shù)。步態(tài)識(shí)別不同于一般生物識(shí)別的最大特點(diǎn)在于它可以在遠(yuǎn)距離且不需要測(cè)試者配合的情況下完成識(shí)別過(guò)程。同時(shí),步態(tài)識(shí)別作為一種行為生物特征識(shí)別方法,就如同人們的書寫方式一樣,自然流暢且難以模仿;谶@些傳統(tǒng)生物特征所不具有的優(yōu)勢(shì),步態(tài)識(shí)別在門禁系統(tǒng)、安全監(jiān)控、人機(jī)交互、醫(yī)療診斷等領(lǐng)域具有廣泛的應(yīng)用前景和經(jīng)濟(jì)價(jià)值。隨著近些年視頻影像技術(shù)越來(lái)越發(fā)達(dá),模式識(shí)別算法越來(lái)越智能,以及計(jì)算機(jī)硬件處理能力越來(lái)越強(qiáng)大,這些都讓步態(tài)識(shí)別換發(fā)出更新鮮的活力,受到越來(lái)越多研究人員的關(guān)注。在現(xiàn)如今的步態(tài)識(shí)別領(lǐng)域,基本可以分為基于2D視頻的方法和基于3D信息的方法。基于2D視頻的方法配置簡(jiǎn)單,但易受光照,視角變化的影響;3D信息的方法雖然可以很大程度上減少視角變化所引起的影響,但使用多相機(jī)重構(gòu)3D信息的方法需進(jìn)行相機(jī)標(biāo)定,步驟繁雜,應(yīng)用效果較差,而使用深度傳感器的方法雖可避免相機(jī)標(biāo)定,但深度相機(jī)價(jià)格昂貴,市場(chǎng)推廣性較差。近年來(lái),隨著Kinect的問(wèn)世,深度傳感器趨于商業(yè)化、廉價(jià)化。這種深度傳感器不僅不易受光線影響,而且易于利用深度信息分割運(yùn)動(dòng)人體與背景信息,同時(shí)可以便捷高效的獲取人體關(guān)節(jié)3D信息,從而為步態(tài)識(shí)別的應(yīng)用開啟了一扇新的大門。本文的主要?jiǎng)?chuàng)新和貢獻(xiàn)主要在以下兩個(gè)方面:(1)本文以第二代Kinect為工具,利用其易于提取人體骨骼關(guān)節(jié)3D位置信息和基于深度信息易于分割人體與背景的特點(diǎn),建立了一個(gè)全新的基于Kinect的步態(tài)數(shù)據(jù)庫(kù)。該數(shù)據(jù)庫(kù)采集了 52個(gè)個(gè)體在6個(gè)固定視角和4個(gè)自定義視角下的1040條行走片段。每條行走片段中包含該個(gè)體每幀21個(gè)骨骼關(guān)節(jié)的3D位置信息和每幀對(duì)應(yīng)的二值化人體剪影輪廓圖。(2)本文利用Kinect所采集到的關(guān)節(jié)位置信息,提取了大腿長(zhǎng)度等8個(gè)骨骼長(zhǎng)度作為靜態(tài)特征,同時(shí)提取了大腿關(guān)節(jié)等8個(gè)隨時(shí)間變化的關(guān)節(jié)擺動(dòng)角度作為動(dòng)態(tài)特征,并且分別驗(yàn)證了這兩種特征對(duì)視角變化的魯棒性。針對(duì)動(dòng)態(tài)特征,本文同時(shí)也討論了周期提取,模板匹配時(shí)相似性度量等關(guān)鍵性問(wèn)題。在此基礎(chǔ)上,本文對(duì)這兩種特征在匹配層進(jìn)行了特征融合,并利用最近鄰分類器進(jìn)行分類識(shí)別。最后,本文分別對(duì)靜態(tài)特征,動(dòng)態(tài)特征以及融合特征在本數(shù)據(jù)庫(kù)下考察了視角不變與視角變化時(shí)的識(shí)別效果,并將本文的方法與傳統(tǒng)基于2D視頻的方法,基于Kinect的方法做了對(duì)比,同時(shí)在另一個(gè)基于Kinect的數(shù)據(jù)庫(kù)上驗(yàn)證了本文的算法。結(jié)果表明本文提出的方法對(duì)視角變化有較好的魯棒性,識(shí)別效果較好,并且算法簡(jiǎn)單,實(shí)時(shí)性強(qiáng)。本文建立的步態(tài)數(shù)據(jù)庫(kù)同時(shí)支持驗(yàn)證基于Kinect關(guān)節(jié)位置的算法以及基于2D剪影輪廓圖的算法,并為兩者相互對(duì)比提供了可能,展現(xiàn)了本數(shù)據(jù)庫(kù)所具有的獨(dú)特優(yōu)勢(shì)。
[Abstract]:Gait recognition is a new biometric recognition technique based on human walking posture. Gait recognition is different from general biometric recognition in that it can be used for long distance and does not require testers to cooperate. To complete the identification process. At the same time, Gait recognition, as a behavioral biometric recognition method, is natural and difficult to imitate, just like the way people write. Based on the advantages of these traditional biometrics, gait recognition is in the access control system, security monitoring, With the development of video image technology, pattern recognition algorithm is more and more intelligent, and the computer hardware processing ability is more and more powerful, with the wide application prospect and economic value in the fields of man-machine interaction, medical diagnosis and so on. All of this has given gait recognition a fresher life and attracted more and more attention from researchers. In the field of gait recognition today, It can be divided into 2D video based method and 3D information based method. 2D video based method is easy to configure, but it is easy to be illuminated. Although the method based on 3D information can reduce the influence caused by the change of view angle to a great extent, the method of using multi-camera to reconstruct 3D information needs camera calibration, the steps are complicated, and the application effect is poor. Although the depth sensor can avoid camera calibration, the depth sensor is expensive and less widely used. In recent years, with the advent of Kinect, the depth sensor tends to be commercialized. This kind of depth sensor is not only easy to be affected by light, but also easy to use depth information to segment moving human body and background information, and can obtain 3D information of human joint easily and efficiently. Thus, it opens a new door for the application of gait recognition. The main innovation and contribution of this paper are mainly in the following two aspects: 1) the second generation Kinect is used as a tool in this paper. It is easy to extract 3D position information of human skeletal joint and to segment human body and background based on depth information. A new gait database based on Kinect was established. The database collected 1, 040 walking fragments of 52 individuals with 6 fixed and 4 custom views. Each walking fragment contains 21 pieces per frame of the individual. The 3D position information of skeletal joints and the corresponding binary silhouette contour of each frame are used in this paper, which is based on the joint position information collected by Kinect. Eight bone lengths, such as thigh length, were extracted as static features, and eight joints swinging angles, such as thigh joints, were extracted as dynamic features. And the robustness of the two features to the change of view angle is verified respectively. For dynamic features, this paper also discusses the key problems such as period extraction, similarity measurement of template matching and so on. In this paper, the two features are fused in the matching layer, and the nearest neighbor classifier is used to classify the two features. The dynamic feature and fusion feature are studied in this database when the angle of view is invariant and the angle of view changes. The method of this paper is compared with the traditional method based on 2D video and the method based on Kinect. At the same time, the algorithm is verified on another database based on Kinect. The results show that the proposed method is robust to the change of view angle, and the recognition effect is good, and the algorithm is simple. The gait database established in this paper supports the algorithms based on Kinect joint position and 2D silhouette at the same time, and provides the possibility for the comparison between the two, which shows the unique advantages of this database.
【學(xué)位授予單位】:山東大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 柴本成;;基于移動(dòng)鐘擺的步態(tài)識(shí)別方法[J];浙江萬(wàn)里學(xué)院學(xué)報(bào);2010年02期

2 田光見,趙榮椿;基于傅立葉描繪子的步態(tài)識(shí)別[J];計(jì)算機(jī)應(yīng)用;2004年11期

3 田光見;趙榮椿;;一種步態(tài)識(shí)別方法[J];計(jì)算機(jī)科學(xué);2005年09期

4 洪文,黃鳳崗,蘇菡;基于連續(xù)隱馬爾科夫模型的步態(tài)識(shí)別[J];應(yīng)用科技;2005年02期

5 劉玉棟,蘇開娜,馬麗;一種基于模型的步態(tài)識(shí)別方法[J];計(jì)算機(jī)工程與應(yīng)用;2005年09期

6 田光見,趙榮椿;步態(tài)識(shí)別綜述[J];計(jì)算機(jī)應(yīng)用研究;2005年05期

7 趙子健;吳曉娟;;基于近似時(shí)空切片向量的步態(tài)識(shí)別方法研究[J];模式識(shí)別與人工智能;2005年05期

8 趙黎麗;侯正信;;步態(tài)識(shí)別問(wèn)題的特點(diǎn)及研究現(xiàn)狀[J];中國(guó)圖象圖形學(xué)報(bào);2006年02期

9 許文芳;吳清江;;步態(tài)識(shí)別綜述[J];福建電腦;2007年01期

10 彭彰;吳曉娟;楊軍;;基于肢體長(zhǎng)度參數(shù)的多視角步態(tài)識(shí)別算法[J];自動(dòng)化學(xué)報(bào);2007年02期

相關(guān)會(huì)議論文 前8條

1 鄧玉春;劉世平;;自動(dòng)步態(tài)識(shí)別方法研究綜述[A];2007通信理論與技術(shù)新發(fā)展——第十二屆全國(guó)青年通信學(xué)術(shù)會(huì)議論文集(上冊(cè))[C];2007年

2 何衛(wèi)華;李平;文玉梅;葉波;袁海軍;;運(yùn)用下肢關(guān)節(jié)角度信息進(jìn)行步態(tài)識(shí)別[A];第十三屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2006年

3 肖軍;蘇潔;鄭波;賈鵬宇;;智能仿生腿在不同路況下的步態(tài)識(shí)別系統(tǒng)研究[A];2007中國(guó)控制與決策學(xué)術(shù)年會(huì)論文集[C];2007年

4 張聰;明東;萬(wàn)柏坤;;基于小波描述子和人體骨架模型的多視角融合步態(tài)識(shí)別[A];天津市生物醫(yī)學(xué)工程學(xué)會(huì)第29屆學(xué)術(shù)年會(huì)暨首屆生物醫(yī)學(xué)工程前沿科學(xué)研討會(huì)論文集[C];2009年

5 朱京紅;方帥;高明;方杰;;基于人工免疫模型的步態(tài)識(shí)別方法[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

6 葉波;文玉梅;李平;;基于核主元分析和支持向量機(jī)的步態(tài)識(shí)別算法[A];第十三屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2006年

7 王科俊;閻濤;呂卓紋;;基于耦合度量學(xué)習(xí)的特征級(jí)融合方法及在步態(tài)識(shí)別中的應(yīng)用[A];2013年中國(guó)智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第三分冊(cè))[C];2013年

8 王科俊;賁f[燁;;基于線性插值的特征模板構(gòu)造的步態(tài)識(shí)別算法框架[A];2009年中國(guó)智能自動(dòng)化會(huì)議論文集(第七分冊(cè))[南京理工大學(xué)學(xué)報(bào)(增刊)][C];2009年

相關(guān)重要報(bào)紙文章 前2條

1 編譯 劉東征;新型“步態(tài)密碼”給手機(jī)加把鎖[N];北京科技報(bào);2005年

2 若水;分析步態(tài)識(shí)別身份[N];光明日?qǐng)?bào);2003年

相關(guān)博士學(xué)位論文 前10條

1 余杰;基于視頻的人體目標(biāo)跟蹤與識(shí)別技術(shù)研究[D];電子科技大學(xué);2016年

2 賁f[燁;基于人體運(yùn)動(dòng)分析的步態(tài)識(shí)別算法研究[D];哈爾濱工程大學(xué);2010年

3 曾瑋;基于確定學(xué)習(xí)理論的人體步態(tài)識(shí)別研究[D];華南理工大學(xué);2012年

4 劉磊;基于多源信息的步態(tài)識(shí)別算法研究[D];河北工業(yè)大學(xué);2015年

5 張?jiān)?基于序列統(tǒng)計(jì)特性的步態(tài)識(shí)別算法研究[D];山東大學(xué);2010年

6 趙國(guó)英;基于視頻的步態(tài)識(shí)別[D];中國(guó)科學(xué)院研究生院(計(jì)算技術(shù)研究所);2005年

7 薛召軍;基于小波變換和支持向量機(jī)相結(jié)合的步態(tài)識(shí)別新方法研究[D];天津大學(xué);2007年

8 胡榮;人體步態(tài)識(shí)別研究[D];華中科技大學(xué);2010年

9 顧磊;基于圖像序列的人體步態(tài)識(shí)別方法研究[D];南京理工大學(xué);2008年

10 劉海濤;基于立體視覺(jué)的步態(tài)識(shí)別研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2010年

相關(guān)碩士學(xué)位論文 前10條

1 陳夏輝;步態(tài)識(shí)別的若干關(guān)鍵技術(shù)研究[D];華南理工大學(xué);2015年

2 王奎;一種基于特征曲線匹配的快速步態(tài)識(shí)別方法研究[D];大連海事大學(xué);2015年

3 楊亞洲;基于人體輪廓特征的步態(tài)識(shí)別技術(shù)研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2013年

4 馬曉龍;基于MIMU的單兵室內(nèi)導(dǎo)航算法研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2013年

5 衣美佳;步態(tài)識(shí)別關(guān)鍵技術(shù)研究[D];南京郵電大學(xué);2015年

6 周浩理;復(fù)雜背景下多特征融合的人體步態(tài)識(shí)別研究[D];海南大學(xué);2016年

7 李雪燕;視頻監(jiān)控中人體步態(tài)識(shí)別方法研究[D];長(zhǎng)春工業(yè)大學(xué);2016年

8 潘秀芳;基于手機(jī)的步態(tài)識(shí)別研究[D];燕山大學(xué);2016年

9 羅璨;存在干擾因素情況下的步態(tài)識(shí)別統(tǒng)動(dòng)力學(xué)初步探索[D];蘇州大學(xué);2016年

10 張鵬;耦合度量學(xué)習(xí)理論及其在步態(tài)識(shí)別中的應(yīng)用研究[D];山東大學(xué);2016年



本文編號(hào):1516434

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1516434.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶58f9b***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com