基于深度學習的數(shù)據(jù)生成和三維姿態(tài)估計
本文關鍵詞:基于深度學習的數(shù)據(jù)生成和三維姿態(tài)估計 出處:《山東大學》2017年碩士論文 論文類型:學位論文
更多相關文章: 深度學習 三維姿態(tài)估計 人體建模
【摘要】:本文借助深度學習,探索了計算機視覺中一項極其重要而又無比艱難的任務,從單張圖片中恢復人體三維姿態(tài)。人體姿態(tài)是人體建模的基礎,很多應用,如姿態(tài)識別,動作識別,情感分析等等,都以人體三維姿態(tài)估計為基礎。同時,人體三維姿態(tài)估計又是一項極其困難的任務。在人體三維姿態(tài)估計中,需要恢復的信息不止x,y軸,還包括Z軸深度信息。本文提出了通過深度學習,采用卷積神經(jīng)網(wǎng)絡的方法對輸入圖像進行特征提取,從而恢復出人體三維姿態(tài)的方法。卷積神經(jīng)網(wǎng)絡可以最大限度的提取圖片的有效特征,在各種計算機視覺的任務上,相比于傳統(tǒng)學習方法,表現(xiàn)出了極高的性能提升。然而,在三維姿態(tài)估計任務中,人體三維姿態(tài)標簽特別難標注。這導致了訓練集不足,無法訓練一個有效的深度神經(jīng)網(wǎng)絡。為解決這個問題,本文提出可以利用計算機圖形學中的渲染方法,構造大批量帶有三維人體姿態(tài)標簽的訓練數(shù)據(jù),從而解決訓練集不足的問題。我們發(fā)現(xiàn),在構造渲染數(shù)據(jù)中,人體姿態(tài)空間的覆蓋和紋理的多樣性是能否成功構造合適訓練數(shù)據(jù)的關鍵因素。同時,本文提出了一個全自動,大批量的自動渲染算法框架來渲染圖片,借助該框架,我們可以從人體姿態(tài)空間中進行采樣,同時從真實衣服圖片中抽取紋理貼圖信息。此外,我們還探索了域遷移算法,用于縮小訓練數(shù)據(jù),也是就是渲染數(shù)據(jù),和測試數(shù)據(jù),也就是真實數(shù)據(jù)之間的差異。我們訓練了新的網(wǎng)絡,針對合成圖片和真實圖片,可以輸出混淆在一起的特征。我們證明,我們的渲染數(shù)據(jù)可以用于訓練卷積神經(jīng)網(wǎng)絡,在人體三維姿態(tài)估計上,該網(wǎng)絡的表現(xiàn)優(yōu)于當前最佳方法。同時,域遷移使得合成圖片和真實圖片的差異進一步縮小,能在原有的基礎上進一步提高。
[Abstract]:With the help of deep learning, this paper explores an extremely important and extremely difficult task in computer vision, which is to restore the three-dimensional posture of human body from a single picture, which is the basis of human body modeling and has many applications. For example, attitude recognition, motion recognition, emotion analysis and so on, are based on human three-dimensional attitude estimation. At the same time, human three-dimensional attitude estimation is an extremely difficult task. The information needed to be recovered is not only XY axis, but also Z axis depth information. In this paper, we propose a method of feature extraction from input image by using convolution neural network and depth learning. The convolutional neural network can extract the most effective features of images, compared with the traditional learning methods in various tasks of computer vision. However, in 3D attitude estimation task, it is particularly difficult to label human 3D attitude tag, which leads to the lack of training set. It is not possible to train an effective depth neural network. In order to solve this problem, the rendering method in computer graphics can be used to construct a large number of training data with 3D human pose label. In order to solve the problem of insufficient training set, we find that the cover of human pose space and the diversity of texture are the key factors to construct suitable training data successfully. In this paper, a full-automatic, mass automatic rendering algorithm framework is proposed to render images. With the help of this framework, we can sample from human pose space. At the same time, we extract texture map information from the real clothes image. In addition, we also explore the domain migration algorithm, which is used to reduce the training data, that is, the rendering data, and the test data. That's the difference between real data. We've trained a new network that can produce confusing features for composite and real images. We prove that. Our rendering data can be used to train convolutional neural network, and the performance of the network is better than the current best method in human 3D attitude estimation. At the same time. Domain migration makes the difference between synthetic and real images smaller and can be further improved on the original basis.
【學位授予單位】:山東大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:TP391.41;TP18
【相似文獻】
相關期刊論文 前10條
1 張彩霞;孫鳳梅;;基于對偶數(shù)的透視N線姿態(tài)估計[J];計算機工程與應用;2012年18期
2 馬瑾;陳立潮;張永梅;;基于分類的頭部姿態(tài)估計算法的研究[J];科技情報開發(fā)與經(jīng)濟;2006年02期
3 傅澤寧;邵曉巍;龔德仁;段登平;;最優(yōu)遞歸線性姿態(tài)估計算法[J];測控技術;2012年06期
4 張小平,朱紅鋒,劉志鏡;多姿態(tài)人臉照片的姿態(tài)估計[J];計算機仿真;2005年04期
5 史東承,于德海,楊冬;一種多視角人臉姿態(tài)估計算法[J];長春工業(yè)大學學報(自然科學版);2004年01期
6 鐘志光;易建強;趙冬斌;洪義平;李新征;;一種魯棒的只需兩幀圖像的姿態(tài)估計方法[J];模式識別與人工智能;2005年04期
7 張根寶;楊永;;粒子濾波器及其在衛(wèi)星姿態(tài)估計中的應用[J];計算機工程與科學;2011年06期
8 張彩霞;趙青娥;;基于旋轉體的攝像機姿態(tài)估計[J];北方工業(yè)大學學報;2011年03期
9 郭作敏;飛行器實時姿態(tài)估計系統(tǒng)[J];光機電信息;1997年12期
10 陳曉鋼;陸玲;周書民;劉向陽;;一種新的人臉姿態(tài)估計算法[J];數(shù)據(jù)采集與處理;2009年04期
相關會議論文 前2條
1 葉蓬;劉方;;一種基于李群的目標姿態(tài)估計方法[A];全國第二屆信號處理與應用學術會議?痆C];2008年
2 牟忠凱;隋立芬;甘雨;黃賢源;;觀測噪聲為有色噪聲的UKF姿態(tài)估計算法[A];第二屆中國衛(wèi)星導航學術年會電子文集[C];2011年
相關博士學位論文 前6條
1 劉袁緣;自然環(huán)境下頭部姿態(tài)估計方法的研究與應用[D];華中師范大學;2015年
2 崔錦實;基于三維模型的關節(jié)式物體姿態(tài)估計與跟蹤方法研究[D];清華大學;2004年
3 趙松;人臉識別中的姿態(tài)估計、識別算法和融合算法的研究[D];中國科學技術大學;2009年
4 歐陽毅;單目視頻中人體運動建模及姿態(tài)估計研究[D];浙江大學;2012年
5 呂丹;基于點法向量姿態(tài)估計的激光雷達距離像目標識別算法研究[D];哈爾濱工業(yè)大學;2016年
6 包姣;基于深度神經(jīng)網(wǎng)絡的回歸模型及其應用研究[D];電子科技大學;2017年
相關碩士學位論文 前10條
1 石廣升;基于Kinect的物體三維模型構建和姿態(tài)估計方法研究[D];哈爾濱工業(yè)大學;2015年
2 杜署明;基于捷聯(lián)慣性傳感的吊鉤姿態(tài)估計技術研究[D];大連理工大學;2015年
3 丁卓;基于單幅靜止圖像的人臉姿態(tài)估計的研究[D];華東師范大學;2014年
4 侯佳麗;基于視覺的無人機姿態(tài)估計方法研究[D];北京理工大學;2016年
5 趙俊寶;駕駛員頭部姿態(tài)估計系統(tǒng)的設計與實現(xiàn)[D];華中科技大學;2014年
6 馬召賓;融合眼部特征及頭部姿態(tài)的實時疲勞駕駛檢測技術研究[D];山東大學;2016年
7 高彪;視障者視覺輔助技術中剛性物體全方位姿態(tài)估計方法[D];天津工業(yè)大學;2016年
8 花景培;監(jiān)控視頻中行人跟蹤及姿態(tài)估計[D];南京郵電大學;2016年
9 程科文;基于自適應三維人臉模型的實時頭部姿態(tài)估計[D];合肥工業(yè)大學;2016年
10 劉少雄;微型飛行器姿態(tài)估計系統(tǒng)設計與實現(xiàn)[D];湖南大學;2015年
,本文編號:1408147
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/1408147.html