天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動(dòng)化論文 >

基于李群特征和深度學(xué)習(xí)的人體動(dòng)作識(shí)別研究

發(fā)布時(shí)間:2020-08-06 08:36
【摘要】:作為計(jì)算機(jī)視覺、人工智能以及模式識(shí)別領(lǐng)域中的重要一員,人體動(dòng)作識(shí)別廣受關(guān)注,其應(yīng)用涉及視頻監(jiān)控、人機(jī)交互、醫(yī)療康復(fù)等領(lǐng)域。然而,由于人體動(dòng)作的多變性、時(shí)空復(fù)雜性等問題的存在,人體動(dòng)作識(shí)別研究仍極具挑戰(zhàn)性。本文提取人體骨骼信息進(jìn)行研究,提出了一種基于李群特征和深度學(xué)習(xí)的人體動(dòng)作識(shí)別方法。人體骨骼信息可較好克服如光照、人體體型變化等外界因素的影響;李群流行結(jié)構(gòu)可較好處理人體運(yùn)動(dòng)數(shù)據(jù)的多樣性和復(fù)雜性問題;深度學(xué)習(xí)用于高維數(shù)據(jù)處理、特征學(xué)習(xí)及分類。具體地,本文利用李群骨骼表示模型對(duì)人體動(dòng)作骨骼數(shù)據(jù)進(jìn)行建模,并用卷積神經(jīng)網(wǎng)絡(luò)對(duì)提取的動(dòng)作特征進(jìn)行學(xué)習(xí)、分類。最后,對(duì)人體動(dòng)作識(shí)別在虛擬學(xué)習(xí)環(huán)境中的自然交互應(yīng)用進(jìn)行了研究。本文主要研究內(nèi)容如下:首先,研究了基于Kinect的人體骨骼信息提取關(guān)鍵技術(shù)。分析了Kinect體感設(shè)備的基本工作原理、人體動(dòng)作數(shù)據(jù)的采集過程及人體骨骼信息的獲取方法。其次,研究了基于李群骨骼表示模型的人體動(dòng)作特征提取方法;诠趋佬畔,利用人體不同身體部位間的相對(duì)三維幾何關(guān)系進(jìn)行人體動(dòng)作建模,將人體動(dòng)作骨架序列表示為李群流行空間中的曲線,然后將李群空間中的曲線映射到李代數(shù)空間,完成人體動(dòng)作特征的提取。再次,研究了基于卷積神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別方法。由于采用李群骨骼表示模型提取的李群特征,其數(shù)據(jù)維度較高,為了能對(duì)高維數(shù)據(jù)進(jìn)行處理,同時(shí)又能降低識(shí)別過程的復(fù)雜度,加快計(jì)算速度,用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行了特征學(xué)習(xí)和分類。分別在數(shù)據(jù)庫Florence3D-Action、MSR Action-Pairs和UT Kinect-Action上進(jìn)行了測(cè)試,本文方法分別取得了93.00%、93.68%和97.96%的平均識(shí)別率,超過目前部分關(guān)注度較高的研究,體現(xiàn)了較好的準(zhǔn)確性和魯棒性。最后,為驗(yàn)證本文方法較好的庫移植能力和魯棒性,在實(shí)驗(yàn)室自建的人體動(dòng)作數(shù)據(jù)庫上進(jìn)行了方法的測(cè)試,取得了97.26%的平均識(shí)別率。同時(shí),本文基于人體動(dòng)作識(shí)別,研究了虛擬學(xué)習(xí)環(huán)境中虛擬角色的自然交互應(yīng)用,四名測(cè)試者分別對(duì)本文虛擬人機(jī)交互系統(tǒng)進(jìn)行了測(cè)試,最終的測(cè)試結(jié)果表明該系統(tǒng)具有靈活性和穩(wěn)定性。
【學(xué)位授予單位】:重慶郵電大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:O152.5;TP18
【圖文】:

深度圖像,深度圖像


碩士學(xué)位論文 第 2 章 人體動(dòng)作識(shí)別與運(yùn)動(dòng)信息ect 深度圖像獲取像又稱作距離圖像,它提供的是被測(cè)試者與 Kinect 設(shè)備間進(jìn)行 3D 反映,距離的單位以毫米(mm)計(jì)數(shù),最大距離 409m-3810mm。當(dāng) Kinect 進(jìn)行外界深度圖像提取時(shí),超出其可別,這部分的值設(shè)置為 0,通常被過濾掉;在可視范圍內(nèi)時(shí)景分割,根據(jù)距離關(guān)系找到目標(biāo)可能存在的區(qū)域,進(jìn)而進(jìn)行取到人體深度圖像的完整輪廓。

身體部位,關(guān)節(jié)點(diǎn),肢體,骨骼


學(xué)位論文 第 3 章 基于李群骨骼表示模型的人特征提取取的人體骨架包含 20 個(gè)關(guān)節(jié)點(diǎn),19 個(gè)骨骼肢體的人體骨骼信息可以較好克服光照變化等外界環(huán)運(yùn)動(dòng)信息,而且數(shù)據(jù)量少,易于儲(chǔ)存,極利于用體骨骼信息的李群骨骼表示模型,其基本原理為)表示,其中1{ , , }NV v v表示人體關(guān)節(jié)集合,E集合,其中N 為關(guān)節(jié)點(diǎn)數(shù)量,M 為剛性肢體數(shù)量的起始點(diǎn)和終止點(diǎn),nl 表示肢體 的長度。

折線圖,識(shí)別率,折線圖,迭代次數(shù)


圖 4.7 識(shí)別率隨迭代次數(shù)變化的折線圖表 4.2 Florence3D-Action 數(shù)據(jù)庫上的不同人體動(dòng)作識(shí)別方法識(shí)別效果比較人體動(dòng)作識(shí)別方法 Florence3D-Action 數(shù)據(jù)庫上的平均識(shí)別率(%)L.Seidenari[54]82.00%M.Devanne[32]87.04%R.Anirudh[28]89.67%R.Vemulapalli[30]90.88%本文方法 93.00%表 4.2 分析可知,本文的人體動(dòng)作識(shí)別方法能夠取得較好的動(dòng)作識(shí)別于其他一些比較流行的動(dòng)作識(shí)別方法,本文的效果更佳;特別地,nari 等人的方法,本文方法的平均識(shí)別率比其高出了 11%;而 R.Ve用了李群骨骼表示和支持向量機(jī)(SVM)相結(jié)合的方法進(jìn)行人體動(dòng)作識(shí)0.88%的平均識(shí)別率,與本文方法相比,本文方法不僅取得了更好的識(shí)

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 丁偉利;胡博;張焱鑫;;基于規(guī)則的連續(xù)動(dòng)作識(shí)別[J];高技術(shù)通訊;2019年09期

2 章樹軍;藍(lán)善禎;卜琪;汪洋;;基于深度學(xué)習(xí)的動(dòng)作識(shí)別方法簡(jiǎn)述[J];中國傳媒大學(xué)學(xué)報(bào)(自然科學(xué)版);2019年05期

3 王松;黨建武;王陽萍;杜曉剛;;實(shí)時(shí)動(dòng)作識(shí)別方法研究[J];計(jì)算機(jī)工程與應(yīng)用;2017年03期

4 李文輝;;基于多示例多特征的人體動(dòng)作識(shí)別[J];信息技術(shù);2016年12期

5 王松;杜曉剛;王陽萍;楊景玉;;基于關(guān)節(jié)點(diǎn)運(yùn)動(dòng)軌跡的人體動(dòng)作識(shí)別[J];寧夏大學(xué)學(xué)報(bào)(自然科學(xué)版);2017年02期

6 任丹;;基于表面肌電信號(hào)特征的動(dòng)作識(shí)別[J];遼東學(xué)院學(xué)報(bào)(自然科學(xué)版);2017年01期

7 區(qū)峻;石千惠;;特征降維和高斯混合模型的體育運(yùn)動(dòng)動(dòng)作識(shí)別[J];現(xiàn)代電子技術(shù);2017年11期

8 凌佩佩;邱崧;蔡茗名;徐偉;豐穎;;結(jié)合特權(quán)信息的人體動(dòng)作識(shí)別[J];中國圖象圖形學(xué)報(bào);2017年04期

9 王松;黨建武;王陽萍;杜曉剛;;基于關(guān)節(jié)間夾角變化序列的動(dòng)作識(shí)別算法研究[J];計(jì)算機(jī)應(yīng)用與軟件;2017年06期

10 侯靜怡;劉翠微;吳心筱;;基于隱任務(wù)學(xué)習(xí)的動(dòng)作識(shí)別方法[J];北京理工大學(xué)學(xué)報(bào);2017年07期

相關(guān)會(huì)議論文 前10條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年

2 葉喜勇;陶霖密;王國建;邸慧軍;;視角無關(guān)的人體軀干動(dòng)作識(shí)別[A];第六屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2010)、第19屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2010)、第6屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2010)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2010)論文集[C];2010年

3 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年

4 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

5 呂超;;基于動(dòng)作識(shí)別的增強(qiáng)現(xiàn)實(shí)系統(tǒng)中實(shí)時(shí)交互技術(shù)的研究~[A];中國造船工程學(xué)會(huì)電子技術(shù)學(xué)術(shù)委員會(huì)2017年裝備技術(shù)發(fā)展論壇論文集[C];2017年

6 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

7 劉志強(qiáng);尹建芹;張玲;魏軍;劉小麗;;基于Kinect數(shù)據(jù)主成分分析的人體動(dòng)作識(shí)別[A];2015光學(xué)精密工程論壇論文集[C];2015年

8 王彥鴻;倪世宏;王剛;謝川;;基于遺傳算法的飛行動(dòng)作識(shí)別規(guī)則獲取方法[A];中國航空學(xué)會(huì)控制與應(yīng)用第十二屆學(xué)術(shù)年會(huì)論文集[C];2006年

9 征容;嚴(yán)瀟然;;PCA在智能家居中的動(dòng)作識(shí)別實(shí)例和測(cè)試[A];四川省通信學(xué)會(huì)2015年學(xué)術(shù)年會(huì)論文集[C];2015年

10 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號(hào)動(dòng)作識(shí)別[A];2013年中國智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊(cè))[C];2013年

相關(guān)重要報(bào)紙文章 前10條

1 記者 袁斯茹;人體動(dòng)作識(shí)別率得以顯著提高[N];深圳商報(bào);2019年

2 記者 顧瑾 通訊員 徐紅萍;杭州電信推出“網(wǎng)絡(luò)健身館”[N];人民郵電;2010年

3 杜浩;無人書店的啟示[N];山西日?qǐng)?bào);2018年

4 本報(bào)記者 陳丹;人與機(jī)器的“對(duì)話”[N];科技日?qǐng)?bào);2010年

5 本報(bào)記者 郝天韻 見習(xí)記者 朱麗娜;無人書店,是噱頭還是趨勢(shì)[N];中國新聞出版廣電報(bào);2018年

6 見習(xí)記者 王欣琳;青年創(chuàng)客展示創(chuàng)新項(xiàng)目尋求更多合作[N];中山日?qǐng)?bào);2019年

7 寧夏 邊書麗 編譯;深入了解體感技術(shù)[N];電子報(bào);2013年

8 本報(bào)記者 馬愛平;動(dòng)一動(dòng)就認(rèn)清你?機(jī)器說可以[N];科技日?qǐng)?bào);2017年

9 曹_g;強(qiáng)強(qiáng)聯(lián)手引領(lǐng)運(yùn)動(dòng)健康產(chǎn)業(yè)發(fā)展[N];中國體育報(bào);2016年

10 安吉;Kinect for Windows帶來精彩行業(yè)應(yīng)用[N];科技日?qǐng)?bào);2014年

相關(guān)博士學(xué)位論文 前10條

1 Fangbemi Abassin Sourou;基于時(shí)空二進(jìn)制特征的動(dòng)作識(shí)別算法研究[D];中國科學(xué)技術(shù)大學(xué);2018年

2 陳野;基于可穿戴傳感器數(shù)據(jù)的人體動(dòng)作識(shí)別方法的研究[D];大連理工大學(xué);2018年

3 楊維信;基于路徑重積分特征和深度學(xué)習(xí)方法的軌跡數(shù)據(jù)的表征和識(shí)別[D];華南理工大學(xué);2018年

4 郭明;融合多源體感信息的人體動(dòng)作識(shí)別方法[D];大連理工大學(xué);2018年

5 王廷蔚;基于鑒別主題和時(shí)序結(jié)構(gòu)的動(dòng)作識(shí)別[D];南京理工大學(xué);2018年

6 王磊;視頻人體運(yùn)動(dòng)的檢測(cè)跟蹤與識(shí)別[D];上海交通大學(xué);2017年

7 王亮亮;基于視覺的人體動(dòng)作識(shí)別研究[D];哈爾濱工業(yè)大學(xué);2017年

8 李向新;基于多源神經(jīng)信息解碼的多功能假肢控制性能增強(qiáng)及優(yōu)化方法[D];中國科學(xué)院大學(xué)(中國科學(xué)院深圳先進(jìn)技術(shù)研究院);2017年

9 林連冬;基于仿生機(jī)械手的肌動(dòng)傳感器動(dòng)作識(shí)別研究[D];黑龍江大學(xué);2017年

10 趙洋;4D人體動(dòng)作識(shí)別中的關(guān)鍵技術(shù)研究[D];電子科技大學(xué);2018年

相關(guān)碩士學(xué)位論文 前10條

1 許澤珊;基于深度神經(jīng)網(wǎng)絡(luò)的視頻動(dòng)作識(shí)別研究[D];華南理工大學(xué);2019年

2 李冬;基于RFID群體標(biāo)簽的動(dòng)作識(shí)別研究[D];上海交通大學(xué);2018年

3 范釗宣;基于深度學(xué)習(xí)的人體動(dòng)作識(shí)別研究[D];上海交通大學(xué);2018年

4 李金德;基于深度聚類的局部表征方法及其在動(dòng)作識(shí)別中的應(yīng)用研究[D];華南理工大學(xué);2019年

5 張向陽;一種可穿戴式人體日常動(dòng)作識(shí)別系統(tǒng)設(shè)計(jì)及其應(yīng)用[D];哈爾濱工業(yè)大學(xué);2019年

6 李子琦;面向智慧健身的物聯(lián)網(wǎng)動(dòng)作監(jiān)控系統(tǒng)研究[D];陜西師范大學(xué);2019年

7 魏馥琳;中國普樂手語手勢(shì)動(dòng)作識(shí)別研究[D];合肥工業(yè)大學(xué);2019年

8 郭孟汗;基于深度學(xué)習(xí)的人體骨架點(diǎn)檢測(cè)研究[D];西安科技大學(xué);2019年

9 李松齡;基于卷積神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別研究[D];電子科技大學(xué);2019年

10 陳星宏;基于3D骨架的肢體動(dòng)作識(shí)別研究[D];電子科技大學(xué);2019年



本文編號(hào):2782126

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2782126.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶3fb87***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com