天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 軟件論文 >

基于3D骨架片段表示度量及流形分割的人體動作識別

發(fā)布時間:2018-03-19 11:39

  本文選題:人體動作識別 切入點:動作(片段)表示度量 出處:《中國科學技術大學》2017年碩士論文 論文類型:學位論文


【摘要】:近年來,由于人體動作識別在包括視頻監(jiān)控、人機交互娛樂、個人護理以及社會服務等方面的廣泛應用,人體動作識別已成為當下計算機視覺領域最受重視的研究方向之一。人體動作識別的目標是讓機器從一段視頻中自動分析和識別所包含的動作。然而,動作視頻中所固有的背景復雜、人體遮擋以及攝像機移動等問題,使得人體動作識別任務具有極大的挑戰(zhàn)性。傳統(tǒng)的研究工作專注于從二維視頻幀圖像中提取圖像的局部時空特征,近年來,由于深度攝像機如微軟體感攝像機Kinect以及與之對應的人體3D骨架坐標追蹤算法的出現(xiàn),促進了基于深度圖像和人體3D骨架信息的一系列新的人體動作識別方法的發(fā)展。與二維視頻幀圖像相比,深度圖像能夠反應純粹的幾何和形狀線索,且對照明條件的變化不敏感,因而基于深度圖像的識別方法在實際應用中更具魯棒性。與基于圖像(RGB及深度圖像)特征的人體動作識別方法不同,本文使用3D骨架信息表示人體動作:一方面,3D骨架信息在人體動作識別工作中的表現(xiàn)比其它基于視頻幀圖像特征提取的方法更好;另一方面,基于姿勢序列的動作表示描述了人體動作的固有特征且符合人類自身對動作的學習認知過程。本文將人體動作局部基于3D骨架信息表示為人體姿勢,整體上一系列姿勢點看作人體動作流形,兩者共同構成文章方法的主線。進而提出基于3D骨架片段表示及流形層次化分割和基于3D骨架片段距離度量及流形序列化分割兩種人體動作識別方法。研究基于視頻及其對應人體3D骨架坐標信息的動作識別問題,從視頻的分割、分割片段的表示以及全局時間關系的處理三方面解決了人體動作識別問題。本文的主要工作和特色如下:(1)使用人體3D骨架信息表示人體動作,進而將人體動作(由人體姿勢序列組成)當作流形進行處理;(2)基于3D骨架信息,提出主姿勢特征和主要動作趨勢特征表示人體動作(片段)并度量動作(片段)間的距離;(3)基于人體動作流形局部線性性度量實現(xiàn)人體動作的分解,利于表示及識別分類任務;(4)提出了兩種人體動作識別方法,并在幾個流行的人體動作數(shù)據(jù)集上進行實驗,證明了所提方法的有效性。
[Abstract]:In recent years, human motion recognition has been widely used in video surveillance, human-computer interactive entertainment, personal care and social services. Human motion recognition has become one of the most important research areas in the field of computer vision. The goal of human motion recognition is to allow machines to automatically analyze and recognize the actions contained in a video. However, There are many problems in motion video, such as complicated background, occlusion of human body, moving of camera and so on. The traditional research work focuses on extracting local temporal and spatial features from two-dimensional video frame images. Because of the emergence of depth cameras such as Kinect, a Microsoft somatosensory camera, and the corresponding human 3D skeleton coordinate tracking algorithm, It promotes the development of a series of new human motion recognition methods based on depth images and human body 3D skeleton information. Compared with two-dimensional video frame images, depth images can reflect pure geometric and shape clues. Moreover, the method based on depth image is more robust in practical application because it is insensitive to the change of illumination condition. It is different from the method based on RGB and depth image. In this paper, 3D skeleton information is used to represent human action: on the one hand, 3D skeleton information is better than other methods based on video frame image feature extraction in human motion recognition; on the other hand, The action representation based on pose sequence describes the inherent characteristics of human actions and accords with the learning and cognition process of human actions. In this paper, the local human actions are represented as human posture based on 3D skeleton information. As a whole, a series of pose points are regarded as human action manifolds, Then, two human action recognition methods based on 3D skeleton segment representation and manifold hierarchical segmentation and 3D skeleton segment distance measurement and manifold serialization segmentation are proposed. The motion recognition problem of video and its corresponding 3D skeleton coordinate information of human body, The problem of human motion recognition is solved from three aspects: video segmentation, segment representation and processing of global temporal relationship. The main work and features of this paper are as follows: 1) Human body action is represented by 3D skeleton information. Then the human actions (composed of human pose sequences) are treated as manifolds based on 3D skeleton information. The main pose feature and the main action trend feature are proposed to represent the human action (segment) and measure the distance between the actions (segments). Based on the local linearity metric of human action manifold, the decomposition of human action is realized. In this paper, two methods of human motion recognition are proposed and tested on several popular human action data sets. The results show that the proposed method is effective.
【學位授予單位】:中國科學技術大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:TP391.41

【相似文獻】

相關期刊論文 前10條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動作識別方法[J];自動化與信息工程;2009年04期

2 胡雅琴;;動作識別技術及其發(fā)展[J];電視技術;2013年S2期

3 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機機動飛行動作識別知識庫的建立[J];計算機仿真;2005年04期

4 程祥;;人體動作識別的研究[J];電腦知識與技術;2006年20期

5 黃飛躍;徐光yP;;視角無關的動作識別[J];軟件學報;2008年07期

6 徐光yP;曹媛媛;;動作識別與行為理解綜述[J];中國圖象圖形學報;2009年02期

7 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡的人體動作識別[J];現(xiàn)代科學儀器;2012年02期

8 周艷青;王磊;;基于視覺的人體動作識別綜述[J];山東輕工業(yè)學院學報(自然科學版);2012年01期

9 曹琨;;基于檢索表的實時動作識別技術研究[J];中外企業(yè)家;2014年05期

10 劉博;安建成;;基于關鍵姿勢的人體動作識別[J];電視技術;2014年05期

相關會議論文 前7條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動作識別方法[A];廣州市儀器儀表學會2009年學術年會論文集[C];2010年

2 黃飛躍;徐光yP;;自然的人體動作識別[A];第三屆和諧人機環(huán)境聯(lián)合學術會議(HHME2007)論文集[C];2007年

3 葉喜勇;陶霖密;王國建;邸慧軍;;視角無關的人體軀干動作識別[A];第六屆和諧人機環(huán)境聯(lián)合學術會議(HHME2010)、第19屆全國多媒體學術會議(NCMT2010)、第6屆全國人機交互學術會議(CHCI2010)、第5屆全國普適計算學術會議(PCC2010)論文集[C];2010年

4 黃艷歡;葉少珍;;連續(xù)動作分割綜述[A];第十四屆全國圖象圖形學學術會議論文集[C];2008年

5 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動作的識別與理解[A];第三屆和諧人機環(huán)境聯(lián)合學術會議(HHME2007)論文集[C];2007年

6 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時空特征的人體動作識別[A];第十五屆全國圖象圖形學學術會議論文集[C];2010年

7 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機的手部肌電信號動作識別[A];2013年中國智能自動化學術會議論文集(第五分冊)[C];2013年

相關重要報紙文章 前2條

1 本報記者 陳丹;人與機器的“對話”[N];科技日報;2010年

2 ;凌空敲鍵盤?無線計算機手套問世[N];中國計算機報;2004年

相關博士學位論文 前10條

1 諶先敢;現(xiàn)實環(huán)境下的人體動作識別[D];武漢大學;2012年

2 陳淵博;視頻序列中的人體動作識別[D];北京郵電大學;2015年

3 劉翠微;視頻中人的動作分析與理解[D];北京理工大學;2015年

4 陳萌;基于李代數(shù)高斯表示的動作識別方法研究[D];華中科技大學;2016年

5 李擬s,

本文編號:1634098


資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1634098.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權申明:資料由用戶0083a***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com