天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

視頻中人體姿態(tài)估計、跟蹤與行為識別研究

發(fā)布時間:2021-07-07 20:27
  隨著機器人越來越多地參與到人類日常的生產(chǎn)與生活,人機交互問題引起了廣泛的關(guān)注。在人機交互問題中,機器人感知外界環(huán)境的能力非常重要。與人類感知外界環(huán)境類似,機器人也需要通過視覺、味覺、嗅覺、聽覺與觸覺來感知外界環(huán)境信息。在目前機器人的應用場合中,較為常用的機器人感知方式是視覺、聽覺與觸覺。其中視覺尤為重要,人類獲取信息的80%來自于視覺,因此學術(shù)界對機器人通過視覺獲取信息的方法與技術(shù)的研究關(guān)注度最高。用于人機交互場景中的機器人通常依靠彩色攝像頭感知與觀察人體及其外界環(huán)境。本論文通過從視頻中提取的信息來識別并理解人體的行為與動作等,可以快速建立人體行為特征數(shù)據(jù)庫,為仿人機器人行為規(guī)劃或人機交互提供基礎(chǔ)數(shù)據(jù)和模型支持。本文提出了基于多級動態(tài)算法結(jié)構(gòu)的人體姿態(tài)離線估計方法和全局-局部分層的人體姿態(tài)在線估計與跟蹤方法;并在視頻中人體姿態(tài)估計結(jié)果的基礎(chǔ)上,提出了基于關(guān)鍵幀切割視頻子段的人體運動行為識別方法和基于卷積神經(jīng)網(wǎng)絡(luò)特征編碼的人體精細行為識別方法。論文的主要內(nèi)容及創(chuàng)新點如下:1.構(gòu)造出可分解與重構(gòu)的二維人體姿態(tài)表達模型。該模型由全局層和局部層組成,稱為全局-局部分層的人體姿態(tài)表達模型。模型的... 

【文章來源】:山東大學山東省 211工程院校 985工程院校 教育部直屬院校

【文章頁數(shù)】:165 頁

【學位級別】:博士

【部分圖文】:

視頻中人體姿態(tài)估計、跟蹤與行為識別研究


圖1-7?Shanon的卡片人模型

肢體,圖像塊,部位


y?翁??(a)傳統(tǒng)圖形模型的部位表達?(b)由Yang和Ramanan改進后的部位表達??圖1?-6?Yang與Ramanan提出的模型各部位之間的連接形式??另外,1996年,Shanon等人[63]定義了一種卡片人模型,用相連接的四邊形平??面塊表示人的肢體t64,65],見圖1-7。模型中假設(shè)每一個圖像塊僅有一個從屬圖像??塊和一個跟隨圖像塊,從而構(gòu)成鏈結(jié)構(gòu),如圖1-8所示。對于相鄰接的肢體,將??對應的四邊形的頂點之間的連接視為彈簧連接,通過各彈簧的伸縮模擬不同的人??體姿態(tài)。??rQ?(pd??[」■?,?_?d?mVJ?poimx?!?^?S,1??yn?A??Uu?\?rW??VJ??圖1-7?Shanon的卡片人模型?圖1-8?Shanon的卡片人模型肢體間的連接??1.2.?2三維人體模型的研究現(xiàn)狀??現(xiàn)實世界中的物體是以三維的形式真實存在的,為了更好地研宄物體的空間??屬性

表達模型,激光束,模型,粒子云


⑷激光束模型?(b)?3D模式??圖1-9?Agin與Binford的馬的激光束模型及由圓柱構(gòu)成的3D模型??|??(a)激光束模型?(b)3D模式??圖1-10?Agin與Binford的娃娃的激光束模型及由圓柱構(gòu)成的3D模型??2005年,Anguelov等人[69]構(gòu)造出一種由數(shù)據(jù)驅(qū)動的模型,稱為SCAPE(Shape??Completion?and?Animation?of?PEople,人體形狀的實現(xiàn)與動畫)模型17Q'7|1,如圖??1-11所示。這個模型可以表示鉸接部位的非剛體形變和部位的肌肉形變,給定人??體形態(tài)的粒子云,Anguelov等人能夠用SCAPE模型模擬出與粒子云最匹配的人體??姿態(tài)。??I???A?L'?d?d?l?復??圖1-11?Anguelov等人提出的SCAPE人體姿態(tài)表達

【參考文獻】:
期刊論文
[1]基于多級動態(tài)模型的2維人體姿態(tài)估計[J]. 馬淼,李貽斌.  機器人. 2016(05)
[2]基于RGB-D傳感器的人體姿態(tài)估計[J]. 潘霽,石繁槐.  中國科技信息. 2016(01)
[3]四足機器人地形識別與路徑規(guī)劃算法[J]. 張慧,榮學文,李貽斌,李彬,丁超,張俊文,張勤.  機器人. 2015(05)
[4]一種基于圖結(jié)構(gòu)模型的人體姿態(tài)估計算法[J]. 韓貴金,朱虹.  計算機工程與應用. 2013(14)
[5]基于HOG和SVM的人體行為仿生識別方法[J]. 王丹,張祥合.  吉林大學學報(工學版). 2013(S1)
[6]圖像和視頻中基于部件檢測器的人體姿態(tài)估計[J]. 蘇延超,艾海舟,勞世竑.  電子與信息學報. 2011(06)
[7]基于手勢識別的機器人人機交互技術(shù)研究[J]. 陳一民,張云華.  機器人. 2009(04)
[8]人體運動分析研究的若干新進展[J]. 黎洪松,李達.  模式識別與人工智能. 2009(01)
[9]多媒體課件設(shè)計中視覺思維規(guī)律的應用[J]. 馮霞.  現(xiàn)代遠程教育研究. 2008(06)
[10]基于閉凸包收縮的最大邊緣線性分類器[J]. 陶卿,孫德敏,范勁松,方廷健.  軟件學報. 2002(03)

博士論文
[1]連接剛體及人體姿態(tài)估計的理論與方法[D]. 張鳴.上海交通大學 2011
[2]基于空間和物體的視覺注意計算方法及實驗研究[D]. 竇燕.燕山大學 2010

碩士論文
[1]基于動作屬性分類器的行為識別研究[D]. 陳文強.西南大學 2014



本文編號:3270315

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3270315.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶48f23***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com