天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 碩博論文 > 信息類碩士論文 >

基于雙Kinect的人體運(yùn)動(dòng)捕捉

發(fā)布時(shí)間:2018-03-12 21:17

  本文選題:運(yùn)動(dòng)捕捉 切入點(diǎn):姿態(tài)估計(jì) 出處:《南京大學(xué)》2017年碩士論文 論文類型:學(xué)位論文


【摘要】:人體運(yùn)動(dòng)捕捉,就是從單個(gè)視角或者多個(gè)已同步或者非同步視角的數(shù)據(jù)或者序列中恢復(fù)出人體的姿態(tài)參數(shù)。精確性和魯棒性是動(dòng)態(tài)人體運(yùn)動(dòng)捕捉算法的基本追求。長(zhǎng)期以來(lái),很多學(xué)者和工程師都在致力于研究先進(jìn)的人體運(yùn)動(dòng)捕捉算法,以期望能實(shí)時(shí)、自動(dòng)、準(zhǔn)確地構(gòu)建三維空間中的人體運(yùn)動(dòng)形體。精確的人體運(yùn)動(dòng)捕捉,廣泛應(yīng)用于體育運(yùn)動(dòng)分析、遠(yuǎn)程醫(yī)療和虛擬現(xiàn)實(shí)等多個(gè)領(lǐng)域,豐富人們的娛樂(lè)方式和日常生活。當(dāng)前,學(xué)術(shù)界在人體運(yùn)動(dòng)捕捉方面已經(jīng)取得了巨大的進(jìn)展,然而當(dāng)遮擋發(fā)生時(shí),當(dāng)前比較流行的運(yùn)動(dòng)捕捉技術(shù)容易陷入局部最優(yōu),降低了運(yùn)動(dòng)估計(jì)結(jié)果的精確度,這促使著眾多的學(xué)者和工程師更積極地投入到運(yùn)動(dòng)捕捉算法的研究中去。本文提出了一個(gè)完整的高精度的人體運(yùn)動(dòng)捕捉系統(tǒng)。首先,我們介紹了人體語(yǔ)義參數(shù)化的人體體型重建方法。本方法通過(guò)建立人體的三維模型與人體的語(yǔ)義參數(shù)(如身高、三圍等)之間的線性映射關(guān)系,再利用采集得到的人體三維點(diǎn)云數(shù)據(jù)的約束,精確得重建人體體型模型。精確的人體體型模型使得人體運(yùn)動(dòng)姿態(tài)重建更加精確。對(duì)于運(yùn)動(dòng)捕捉,與以往的單目深度相機(jī)系統(tǒng)不同,我們使用兩個(gè)Kinect相機(jī)從不同的角度來(lái)獲取人體的運(yùn)動(dòng)信息,并以根據(jù)前一幀圖像數(shù)據(jù)求解得出的人體形體作為當(dāng)前待求解的圖像的人體模板,將人體姿態(tài)參數(shù)的求解轉(zhuǎn)化為一個(gè)MAP問(wèn)題來(lái)解決。雙Kinect相機(jī)系統(tǒng)的使用,使得當(dāng)遮擋的情況出現(xiàn)時(shí)我們?nèi)匀挥凶銐虻男畔⒂糜诰_估計(jì)人體的運(yùn)動(dòng)姿態(tài)。另一方面,利用人體運(yùn)動(dòng)在時(shí)域上的連續(xù)性,我們引入了時(shí)域約束條件,使用學(xué)習(xí)的方法來(lái)進(jìn)一步挖掘人體姿態(tài)變化上的時(shí)域信息來(lái)約束人體運(yùn)動(dòng)參數(shù)的求解。時(shí)域約束條件的引入,使得我們?cè)诿鎸?duì)較快速度運(yùn)動(dòng)的人體時(shí)的求解結(jié)果精度更高。實(shí)驗(yàn)證明,時(shí)域約束條件有助于提高我們的運(yùn)動(dòng)捕捉系統(tǒng)的精度。
[Abstract]:Human motion capture is to recover human posture parameters from data or sequences of single or multiple synchronized or asynchronous visual angles. Accuracy and robustness are the basic pursuit of dynamic human motion capture algorithm for a long time. Many scholars and engineers are working on advanced human motion capture algorithms in the hope that they can construct human motion bodies in three dimensional space in real time, automatically and accurately. Accurate human motion capture is widely used in sports analysis. Telemedicine and virtual reality enrich people's entertainment and daily life. At present, great progress has been made in the field of human motion capture, but when occlusion occurs, The current popular motion capture techniques tend to fall into local optimum, which reduces the accuracy of motion estimation results. This has prompted many scholars and engineers to devote themselves more actively to the research of motion capture algorithms. In this paper, a complete human motion capture system with high accuracy is proposed. In this paper, we introduce the method of human body shape reconstruction with semantic parameterization. By establishing the linear mapping relationship between human body 3D model and human body semantic parameters (such as height, Sanwei, etc.), Then using the constraint of the collected 3D point cloud data, the body shape model can be reconstructed accurately. The precise body shape model makes the human body posture reconstruction more accurate. Different from the previous monocular depth camera system, we use two Kinect cameras to obtain human body motion information from different angles, and take the human body shape obtained from the previous frame image data as the human body template of the current image to be solved. The solution of attitude parameters of human body is transformed into a MAP problem. With the use of double Kinect camera system, we still have enough information to estimate the human body's motion attitude when the occlusion occurs. On the other hand, Using the continuity of human motion in time domain, we introduce the time domain constraint condition, and use the learning method to further excavate the time domain information of the human body attitude change to constrain the solution of the human body motion parameter, and introduce the time domain constraint condition. The experimental results show that the time-domain constraint condition is helpful to improve the accuracy of our motion capture system.
【學(xué)位授予單位】:南京大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前2條

1 瞿文吉,藍(lán)祖云,張鴻姿,張人驤;人體體型的立體測(cè)量[J];科學(xué)通報(bào);1987年23期

2 ;[J];;年期

相關(guān)重要報(bào)紙文章 前1條

1 文化;制衣業(yè)要靠新設(shè)備“武裝”[N];中國(guó)商報(bào);2000年

相關(guān)博士學(xué)位論文 前1條

1 陳文飛;基于服裝合體性的女性人體體型研究[D];東華大學(xué);2001年

相關(guān)碩士學(xué)位論文 前10條

1 趙廣艷;適體女上裝的結(jié)構(gòu)優(yōu)化設(shè)計(jì)[D];河北科技大學(xué);2014年

2 高之泉;基于雙Kinect的人體運(yùn)動(dòng)捕捉[D];南京大學(xué);2017年

3 王瑩;面向個(gè)性化服裝定制的人體體型分析系統(tǒng)的研究[D];東華大學(xué);2008年

4 王鵬;數(shù)字化電子量身定制系統(tǒng)關(guān)鍵技術(shù)研究及應(yīng)用[D];東華大學(xué);2006年

5 米婷婷;東華原型的補(bǔ)充性研究[D];東華大學(xué);2009年

6 孫潔;基于神經(jīng)網(wǎng)絡(luò)集成的人體體型分析與號(hào)型歸檔研究[D];浙江理工大學(xué);2013年

7 凌晨;面向電子化量身定制服裝eMTM的人體體型分析系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];東華大學(xué);2005年

8 姜濤;基于數(shù)碼照片測(cè)量技術(shù)的女性人體體型研究[D];蘇州大學(xué);2007年

9 林在韻;人體體型因素及界面展示方式對(duì)線上服裝購(gòu)買成功率的影響[D];東華大學(xué);2014年

10 龐程方;基于橫截面形態(tài)的青年男性體型細(xì)分與識(shí)別研究[D];浙江理工大學(xué);2015年

,

本文編號(hào):1603323

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/1603323.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶cd0b6***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com
亚洲欧美日韩在线中文字幕| 欧美激情一区=区三区| 国产又黄又爽又粗视频在线| 国产精品刮毛视频不卡| 一区二区三区四区亚洲专区| 青青操日老女人的穴穴| 男女激情视频在线免费观看| 国产福利在线播放麻豆| 丰满人妻熟妇乱又伦精另类视频 | 在线日韩中文字幕一区| 亚洲一区二区三区一区| 日韩精品一区二区不卡| 亚洲专区一区中文字幕| 国产精品二区三区免费播放心| 国产精品美女午夜视频| 国产中文字幕一二三区| 粗暴蹂躏中文一区二区三区| 国产一级二级三级观看| 又黄又硬又爽又色的视频| 欧美视频在线观看一区| 又大又长又粗又黄国产| 欧美整片精品日韩综合| 精品一区二区三区乱码中文| 国产不卡一区二区四区| 日本在线高清精品人妻| 好吊日在线观看免费视频| 不卡视频在线一区二区三区| 日韩高清中文字幕亚洲| 亚洲丁香婷婷久久一区| 日韩欧美国产亚洲一区| 国产免费自拍黄片免费看| 国产白丝粉嫩av在线免费观看| 国产肥妇一区二区熟女精品| 欧美偷拍一区二区三区四区| 亚洲黄片在线免费小视频| 国产又色又爽又黄又大| 中文字幕日韩欧美亚洲午夜| 国产一区二区三区四区中文| 大香蕉伊人一区二区三区| 亚洲精品福利入口在线| 亚洲高清中文字幕一区二三区|