天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于KINECT的靜態(tài)手勢和上肢連續(xù)動(dòng)作識(shí)別

發(fā)布時(shí)間:2018-01-12 16:35

  本文關(guān)鍵詞:基于KINECT的靜態(tài)手勢和上肢連續(xù)動(dòng)作識(shí)別 出處:《北京理工大學(xué)》2016年碩士論文 論文類型:學(xué)位論文


  更多相關(guān)文章: 靜態(tài)手勢識(shí)別 連續(xù)動(dòng)作識(shí)別 KINECT


【摘要】:隨著電腦技術(shù)的發(fā)展,自然簡潔的非接觸式交互越來越受到人們的青睞。手勢和動(dòng)作作為人們?nèi)粘=涣鞯某S檬侄我渤蔀榱朔墙佑|式交互的主要途徑。當(dāng)前基于單目視覺的手勢和動(dòng)作識(shí)別容易受到光照、顏色等環(huán)境因素的影響,基于雙目視覺的識(shí)別雖然能夠很大程度上避免這些影響,但是計(jì)算過程較為復(fù)雜。隨著深度攝像機(jī)如KINECT的出現(xiàn),在提供彩色信息的同時(shí)還能夠提供整個(gè)場景的三維信息,因而可以極大程度地減輕環(huán)境因素的影響,有效提升手勢和動(dòng)作識(shí)別的速度和準(zhǔn)確度。本文基于體感攝像機(jī)提供的深度數(shù)據(jù),對手勢識(shí)別和動(dòng)作識(shí)別進(jìn)行研究,主要工作內(nèi)容如下:1)提出了一種基于深度信息和隨機(jī)森林模型的日常靜態(tài)手勢識(shí)別算法。通過KINECT提供的人體骨架數(shù)據(jù)對場景深度圖分割得到手部的二值化圖像,然后通過迭代算法求解手部的最大內(nèi)接圓進(jìn)而得到掌心的近似位置,同時(shí)通過對手部形狀描述符的分析獲取手指的具體信息,在此基礎(chǔ)之上結(jié)合對手勢特點(diǎn)的分析提取出簡單魯棒的手勢特征,最后選取隨機(jī)森林算法建立手勢的機(jī)器學(xué)習(xí)模型,實(shí)現(xiàn)靜態(tài)手勢的識(shí)別。實(shí)驗(yàn)中對九種靜態(tài)手勢的識(shí)別效果表明了該方法的有效性。2)提出了一種基于動(dòng)態(tài)規(guī)劃和隱式馬爾可夫模型的上肢連續(xù)動(dòng)作識(shí)別方法。首先通過視頻中的深度信息提取出歸一化的骨架來表征人體的姿態(tài);然后通過隱式馬爾可夫模型對人體的每個(gè)動(dòng)作進(jìn)行建模,并通過先驗(yàn)知識(shí)將連續(xù)動(dòng)作序列劃分為多個(gè)子序列;最后利用隱式馬爾可夫模型構(gòu)造代價(jià)函數(shù),通過動(dòng)態(tài)規(guī)劃算法和一個(gè)閾值模型為每個(gè)子序列計(jì)算最優(yōu)的動(dòng)作識(shí)別標(biāo)簽,最終實(shí)現(xiàn)連續(xù)動(dòng)作識(shí)別。實(shí)驗(yàn)中對20組上肢連續(xù)動(dòng)作序列的識(shí)別結(jié)果證明了該方法的有效性。
[Abstract]:With the development of computer technology. Natural and concise contactless interaction is becoming more and more popular. Gestures and actions, as the common means of people's daily communication, have become the main way of contactless interaction. At present, gestures and actions based on monocular vision have become the main way of non-contact interaction. Recognition is vulnerable to light. The recognition based on binocular vision can avoid these effects to a great extent, but the calculation process is more complicated. With the appearance of depth camera such as KINECT. While providing color information, it can also provide three-dimensional information of the whole scene, so it can greatly reduce the impact of environmental factors. It can effectively improve the speed and accuracy of gesture and motion recognition. Based on the depth data provided by the somatosensory camera, this paper studies gesture recognition and motion recognition. The main work is as follows: 1). A daily static gesture recognition algorithm based on depth information and stochastic forest model is proposed. The binary hand image is obtained by segmenting the scene depth map from the human skeleton data provided by KINECT. Then the approximate position of the palm is obtained by iterative algorithm, and the specific information of the finger is obtained by analyzing the shape descriptor of the hand. On the basis of this, the simple robust gesture features are extracted by analyzing the gesture characteristics. Finally, the machine learning model of gesture is established by selecting the stochastic forest algorithm. The recognition effect of nine static gestures shows the effectiveness of the method. 2). A method of upper limb continuous motion recognition based on dynamic programming and implicit Markov model is proposed. Firstly, the normalized skeleton is extracted from the depth information of the video to represent the posture of the human body. Then each action of human body is modeled by implicit Markov model, and the continuous action sequence is divided into multiple sub-sequences by prior knowledge. Finally, the cost function is constructed by implicit Markov model, and the optimal action identification label is calculated by dynamic programming algorithm and a threshold model for each sub-sequence. Finally, the recognition of continuous action is realized, and the effectiveness of the method is proved by the recognition results of 20 groups of upper limb continuous action sequences in the experiment.
【學(xué)位授予單位】:北京理工大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 胡雅琴;;動(dòng)作識(shí)別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期

2 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機(jī)機(jī)動(dòng)飛行動(dòng)作識(shí)別知識(shí)庫的建立[J];計(jì)算機(jī)仿真;2005年04期

3 程祥;;人體動(dòng)作識(shí)別的研究[J];電腦知識(shí)與技術(shù);2006年20期

4 黃飛躍;徐光yP;;視角無關(guān)的動(dòng)作識(shí)別[J];軟件學(xué)報(bào);2008年07期

5 徐光yP;曹媛媛;;動(dòng)作識(shí)別與行為理解綜述[J];中國圖象圖形學(xué)報(bào);2009年02期

6 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別[J];現(xiàn)代科學(xué)儀器;2012年02期

7 周艷青;王磊;;基于視覺的人體動(dòng)作識(shí)別綜述[J];山東輕工業(yè)學(xué)院學(xué)報(bào)(自然科學(xué)版);2012年01期

8 曹琨;;基于檢索表的實(shí)時(shí)動(dòng)作識(shí)別技術(shù)研究[J];中外企業(yè)家;2014年05期

9 劉博;安建成;;基于關(guān)鍵姿勢的人體動(dòng)作識(shí)別[J];電視技術(shù);2014年05期

10 王燕;張紹武;凌志剛;潘泉;;基于圖嵌入線性拓展方法的人體動(dòng)作識(shí)別研究[J];計(jì)算機(jī)仿真;2008年10期

相關(guān)會(huì)議論文 前7條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年

2 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

3 葉喜勇;陶霖密;王國建;邸慧軍;;視角無關(guān)的人體軀干動(dòng)作識(shí)別[A];第六屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2010)、第19屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2010)、第6屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2010)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2010)論文集[C];2010年

4 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

5 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動(dòng)作的識(shí)別與理解[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

6 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年

7 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號動(dòng)作識(shí)別[A];2013年中國智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊)[C];2013年

相關(guān)重要報(bào)紙文章 前2條

1 本報(bào)記者 陳丹;人與機(jī)器的“對話”[N];科技日報(bào);2010年

2 ;凌空敲鍵盤?無線計(jì)算機(jī)手套問世[N];中國計(jì)算機(jī)報(bào);2004年

相關(guān)博士學(xué)位論文 前10條

1 諶先敢;現(xiàn)實(shí)環(huán)境下的人體動(dòng)作識(shí)別[D];武漢大學(xué);2012年

2 陳淵博;視頻序列中的人體動(dòng)作識(shí)別[D];北京郵電大學(xué);2015年

3 劉翠微;視頻中人的動(dòng)作分析與理解[D];北京理工大學(xué);2015年

4 陳萌;基于李代數(shù)高斯表示的動(dòng)作識(shí)別方法研究[D];華中科技大學(xué);2016年

5 李擬s,

本文編號:1415080


資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1415080.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶cbf59***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com