基于李群特征和深度學(xué)習(xí)的人體動(dòng)作識(shí)別研究
【學(xué)位授予單位】:重慶郵電大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:O152.5;TP18
【圖文】:
碩士學(xué)位論文 第 2 章 人體動(dòng)作識(shí)別與運(yùn)動(dòng)信息ect 深度圖像獲取像又稱作距離圖像,它提供的是被測(cè)試者與 Kinect 設(shè)備間進(jìn)行 3D 反映,距離的單位以毫米(mm)計(jì)數(shù),最大距離 409m-3810mm。當(dāng) Kinect 進(jìn)行外界深度圖像提取時(shí),超出其可別,這部分的值設(shè)置為 0,通常被過濾掉;在可視范圍內(nèi)時(shí)景分割,根據(jù)距離關(guān)系找到目標(biāo)可能存在的區(qū)域,進(jìn)而進(jìn)行取到人體深度圖像的完整輪廓。
學(xué)位論文 第 3 章 基于李群骨骼表示模型的人特征提取取的人體骨架包含 20 個(gè)關(guān)節(jié)點(diǎn),19 個(gè)骨骼肢體的人體骨骼信息可以較好克服光照變化等外界環(huán)運(yùn)動(dòng)信息,而且數(shù)據(jù)量少,易于儲(chǔ)存,極利于用體骨骼信息的李群骨骼表示模型,其基本原理為)表示,其中1{ , , }NV v v表示人體關(guān)節(jié)集合,E集合,其中N 為關(guān)節(jié)點(diǎn)數(shù)量,M 為剛性肢體數(shù)量的起始點(diǎn)和終止點(diǎn),nl 表示肢體 的長度。
圖 4.7 識(shí)別率隨迭代次數(shù)變化的折線圖表 4.2 Florence3D-Action 數(shù)據(jù)庫上的不同人體動(dòng)作識(shí)別方法識(shí)別效果比較人體動(dòng)作識(shí)別方法 Florence3D-Action 數(shù)據(jù)庫上的平均識(shí)別率(%)L.Seidenari[54]82.00%M.Devanne[32]87.04%R.Anirudh[28]89.67%R.Vemulapalli[30]90.88%本文方法 93.00%表 4.2 分析可知,本文的人體動(dòng)作識(shí)別方法能夠取得較好的動(dòng)作識(shí)別于其他一些比較流行的動(dòng)作識(shí)別方法,本文的效果更佳;特別地,nari 等人的方法,本文方法的平均識(shí)別率比其高出了 11%;而 R.Ve用了李群骨骼表示和支持向量機(jī)(SVM)相結(jié)合的方法進(jìn)行人體動(dòng)作識(shí)0.88%的平均識(shí)別率,與本文方法相比,本文方法不僅取得了更好的識(shí)
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 丁偉利;胡博;張焱鑫;;基于規(guī)則的連續(xù)動(dòng)作識(shí)別[J];高技術(shù)通訊;2019年09期
2 章樹軍;藍(lán)善禎;卜琪;汪洋;;基于深度學(xué)習(xí)的動(dòng)作識(shí)別方法簡(jiǎn)述[J];中國傳媒大學(xué)學(xué)報(bào)(自然科學(xué)版);2019年05期
3 王松;黨建武;王陽萍;杜曉剛;;實(shí)時(shí)動(dòng)作識(shí)別方法研究[J];計(jì)算機(jī)工程與應(yīng)用;2017年03期
4 李文輝;;基于多示例多特征的人體動(dòng)作識(shí)別[J];信息技術(shù);2016年12期
5 王松;杜曉剛;王陽萍;楊景玉;;基于關(guān)節(jié)點(diǎn)運(yùn)動(dòng)軌跡的人體動(dòng)作識(shí)別[J];寧夏大學(xué)學(xué)報(bào)(自然科學(xué)版);2017年02期
6 任丹;;基于表面肌電信號(hào)特征的動(dòng)作識(shí)別[J];遼東學(xué)院學(xué)報(bào)(自然科學(xué)版);2017年01期
7 區(qū)峻;石千惠;;特征降維和高斯混合模型的體育運(yùn)動(dòng)動(dòng)作識(shí)別[J];現(xiàn)代電子技術(shù);2017年11期
8 凌佩佩;邱崧;蔡茗名;徐偉;豐穎;;結(jié)合特權(quán)信息的人體動(dòng)作識(shí)別[J];中國圖象圖形學(xué)報(bào);2017年04期
9 王松;黨建武;王陽萍;杜曉剛;;基于關(guān)節(jié)間夾角變化序列的動(dòng)作識(shí)別算法研究[J];計(jì)算機(jī)應(yīng)用與軟件;2017年06期
10 侯靜怡;劉翠微;吳心筱;;基于隱任務(wù)學(xué)習(xí)的動(dòng)作識(shí)別方法[J];北京理工大學(xué)學(xué)報(bào);2017年07期
相關(guān)會(huì)議論文 前10條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年
2 葉喜勇;陶霖密;王國建;邸慧軍;;視角無關(guān)的人體軀干動(dòng)作識(shí)別[A];第六屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2010)、第19屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2010)、第6屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2010)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2010)論文集[C];2010年
3 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年
4 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年
5 呂超;;基于動(dòng)作識(shí)別的增強(qiáng)現(xiàn)實(shí)系統(tǒng)中實(shí)時(shí)交互技術(shù)的研究~[A];中國造船工程學(xué)會(huì)電子技術(shù)學(xué)術(shù)委員會(huì)2017年裝備技術(shù)發(fā)展論壇論文集[C];2017年
6 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年
7 劉志強(qiáng);尹建芹;張玲;魏軍;劉小麗;;基于Kinect數(shù)據(jù)主成分分析的人體動(dòng)作識(shí)別[A];2015光學(xué)精密工程論壇論文集[C];2015年
8 王彥鴻;倪世宏;王剛;謝川;;基于遺傳算法的飛行動(dòng)作識(shí)別規(guī)則獲取方法[A];中國航空學(xué)會(huì)控制與應(yīng)用第十二屆學(xué)術(shù)年會(huì)論文集[C];2006年
9 征容;嚴(yán)瀟然;;PCA在智能家居中的動(dòng)作識(shí)別實(shí)例和測(cè)試[A];四川省通信學(xué)會(huì)2015年學(xué)術(shù)年會(huì)論文集[C];2015年
10 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號(hào)動(dòng)作識(shí)別[A];2013年中國智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊(cè))[C];2013年
相關(guān)重要報(bào)紙文章 前10條
1 記者 袁斯茹;人體動(dòng)作識(shí)別率得以顯著提高[N];深圳商報(bào);2019年
2 記者 顧瑾 通訊員 徐紅萍;杭州電信推出“網(wǎng)絡(luò)健身館”[N];人民郵電;2010年
3 杜浩;無人書店的啟示[N];山西日?qǐng)?bào);2018年
4 本報(bào)記者 陳丹;人與機(jī)器的“對(duì)話”[N];科技日?qǐng)?bào);2010年
5 本報(bào)記者 郝天韻 見習(xí)記者 朱麗娜;無人書店,是噱頭還是趨勢(shì)[N];中國新聞出版廣電報(bào);2018年
6 見習(xí)記者 王欣琳;青年創(chuàng)客展示創(chuàng)新項(xiàng)目尋求更多合作[N];中山日?qǐng)?bào);2019年
7 寧夏 邊書麗 編譯;深入了解體感技術(shù)[N];電子報(bào);2013年
8 本報(bào)記者 馬愛平;動(dòng)一動(dòng)就認(rèn)清你?機(jī)器說可以[N];科技日?qǐng)?bào);2017年
9 曹_g;強(qiáng)強(qiáng)聯(lián)手引領(lǐng)運(yùn)動(dòng)健康產(chǎn)業(yè)發(fā)展[N];中國體育報(bào);2016年
10 安吉;Kinect for Windows帶來精彩行業(yè)應(yīng)用[N];科技日?qǐng)?bào);2014年
相關(guān)博士學(xué)位論文 前10條
1 Fangbemi Abassin Sourou;基于時(shí)空二進(jìn)制特征的動(dòng)作識(shí)別算法研究[D];中國科學(xué)技術(shù)大學(xué);2018年
2 陳野;基于可穿戴傳感器數(shù)據(jù)的人體動(dòng)作識(shí)別方法的研究[D];大連理工大學(xué);2018年
3 楊維信;基于路徑重積分特征和深度學(xué)習(xí)方法的軌跡數(shù)據(jù)的表征和識(shí)別[D];華南理工大學(xué);2018年
4 郭明;融合多源體感信息的人體動(dòng)作識(shí)別方法[D];大連理工大學(xué);2018年
5 王廷蔚;基于鑒別主題和時(shí)序結(jié)構(gòu)的動(dòng)作識(shí)別[D];南京理工大學(xué);2018年
6 王磊;視頻人體運(yùn)動(dòng)的檢測(cè)跟蹤與識(shí)別[D];上海交通大學(xué);2017年
7 王亮亮;基于視覺的人體動(dòng)作識(shí)別研究[D];哈爾濱工業(yè)大學(xué);2017年
8 李向新;基于多源神經(jīng)信息解碼的多功能假肢控制性能增強(qiáng)及優(yōu)化方法[D];中國科學(xué)院大學(xué)(中國科學(xué)院深圳先進(jìn)技術(shù)研究院);2017年
9 林連冬;基于仿生機(jī)械手的肌動(dòng)傳感器動(dòng)作識(shí)別研究[D];黑龍江大學(xué);2017年
10 趙洋;4D人體動(dòng)作識(shí)別中的關(guān)鍵技術(shù)研究[D];電子科技大學(xué);2018年
相關(guān)碩士學(xué)位論文 前10條
1 許澤珊;基于深度神經(jīng)網(wǎng)絡(luò)的視頻動(dòng)作識(shí)別研究[D];華南理工大學(xué);2019年
2 李冬;基于RFID群體標(biāo)簽的動(dòng)作識(shí)別研究[D];上海交通大學(xué);2018年
3 范釗宣;基于深度學(xué)習(xí)的人體動(dòng)作識(shí)別研究[D];上海交通大學(xué);2018年
4 李金德;基于深度聚類的局部表征方法及其在動(dòng)作識(shí)別中的應(yīng)用研究[D];華南理工大學(xué);2019年
5 張向陽;一種可穿戴式人體日常動(dòng)作識(shí)別系統(tǒng)設(shè)計(jì)及其應(yīng)用[D];哈爾濱工業(yè)大學(xué);2019年
6 李子琦;面向智慧健身的物聯(lián)網(wǎng)動(dòng)作監(jiān)控系統(tǒng)研究[D];陜西師范大學(xué);2019年
7 魏馥琳;中國普樂手語手勢(shì)動(dòng)作識(shí)別研究[D];合肥工業(yè)大學(xué);2019年
8 郭孟汗;基于深度學(xué)習(xí)的人體骨架點(diǎn)檢測(cè)研究[D];西安科技大學(xué);2019年
9 李松齡;基于卷積神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別研究[D];電子科技大學(xué);2019年
10 陳星宏;基于3D骨架的肢體動(dòng)作識(shí)別研究[D];電子科技大學(xué);2019年
本文編號(hào):2782126
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2782126.html