基于空間骨架時(shí)序圖的舞蹈特定動(dòng)作識(shí)別方法
發(fā)布時(shí)間:2021-05-15 05:14
隨著機(jī)器視覺(jué)技術(shù)的發(fā)展,人體動(dòng)作識(shí)別逐漸成為熱門的研究方向,但其在舞蹈動(dòng)作識(shí)別領(lǐng)域的應(yīng)用研究則處于起步階段。文中將基于深度學(xué)習(xí)的人體動(dòng)作識(shí)別技術(shù)引入此領(lǐng)域,以實(shí)現(xiàn)輔助訓(xùn)練的智能化。文中首先分析最先進(jìn)的人體動(dòng)作識(shí)別算法,在計(jì)算機(jī)視覺(jué)方面的優(yōu)勢(shì)與在特定領(lǐng)域的局限性。在此基礎(chǔ)上,提出一種基于空間骨架時(shí)序圖的舞蹈動(dòng)作識(shí)別算法。該算法先使用PAFs對(duì)舞蹈視頻中的舞蹈演員提取骨架節(jié)點(diǎn),再生成骨架序列。最后,結(jié)合LSTM對(duì)其進(jìn)行動(dòng)作識(shí)別。測(cè)試與分析結(jié)果表明,該算法可針對(duì)Balletto舞蹈視頻數(shù)據(jù)庫(kù)進(jìn)行識(shí)別,且可有效識(shí)別舞蹈動(dòng)作,實(shí)現(xiàn)對(duì)舞蹈演員的動(dòng)作糾正。
【文章來(lái)源】:信息技術(shù). 2019,43(11)
【文章頁(yè)數(shù)】:5 頁(yè)
【文章目錄】:
0 引言
1 算法模型
1.1 人體姿態(tài)估計(jì)
1.2 時(shí)間序列識(shí)別
2 試驗(yàn)和分析
2.1 試驗(yàn)數(shù)據(jù)集
2.2 舞蹈動(dòng)作識(shí)別算法的性能分析
3 結(jié)束語(yǔ)
【參考文獻(xiàn)】:
期刊論文
[1]一種基于MHI和支持向量機(jī)的人體動(dòng)作識(shí)別方法分析[J]. 馬新錄. 電子設(shè)計(jì)工程. 2018(17)
[2]深度學(xué)習(xí)在視頻動(dòng)作識(shí)別中的應(yīng)用[J]. 齊妍薇. 電子技術(shù)與軟件工程. 2018(08)
[3]基于傅里葉-隱馬爾科夫模型的人體行為識(shí)別方法研究[J]. 胡煒. 電子設(shè)計(jì)工程. 2018(07)
[4]基于視頻深度學(xué)習(xí)的時(shí)空雙流人物動(dòng)作識(shí)別模型[J]. 楊天明,陳志,岳文靜. 計(jì)算機(jī)應(yīng)用. 2018(03)
[5]基于訓(xùn)練圖CNN特征的視頻人體動(dòng)作識(shí)別算法[J]. 曹晉其,蔣興浩,孫錟鋒. 計(jì)算機(jī)工程. 2017(11)
[6]舞蹈視頻圖像中人體動(dòng)作識(shí)別技術(shù)的研究[J]. 陳利峰. 現(xiàn)代電子技術(shù). 2017(03)
[7]基于李代數(shù)的人體手臂慣性動(dòng)作捕捉算法[J]. 劉丹,王鑫,片錦香. 沈陽(yáng)工業(yè)大學(xué)學(xué)報(bào). 2017(01)
[8]基于外形特征與運(yùn)動(dòng)特征的人體行為提取方法[J]. 韓駿浩,趙懷勛. 電子科技. 2014(10)
[9]基于骨架運(yùn)算的動(dòng)態(tài)手勢(shì)定位及識(shí)別算法[J]. 劉耀杰,舒暢,傅志中. 電子科技. 2014(03)
碩士論文
[1]基于3D骨架的室內(nèi)人體行為識(shí)別研究[D]. 彭玲.武漢工程大學(xué) 2017
[2]基于Kinect的人體動(dòng)作識(shí)別系統(tǒng)與實(shí)現(xiàn)[D]. 邊俊霞.濟(jì)南大學(xué) 2015
本文編號(hào):3187023
【文章來(lái)源】:信息技術(shù). 2019,43(11)
【文章頁(yè)數(shù)】:5 頁(yè)
【文章目錄】:
0 引言
1 算法模型
1.1 人體姿態(tài)估計(jì)
1.2 時(shí)間序列識(shí)別
2 試驗(yàn)和分析
2.1 試驗(yàn)數(shù)據(jù)集
2.2 舞蹈動(dòng)作識(shí)別算法的性能分析
3 結(jié)束語(yǔ)
【參考文獻(xiàn)】:
期刊論文
[1]一種基于MHI和支持向量機(jī)的人體動(dòng)作識(shí)別方法分析[J]. 馬新錄. 電子設(shè)計(jì)工程. 2018(17)
[2]深度學(xué)習(xí)在視頻動(dòng)作識(shí)別中的應(yīng)用[J]. 齊妍薇. 電子技術(shù)與軟件工程. 2018(08)
[3]基于傅里葉-隱馬爾科夫模型的人體行為識(shí)別方法研究[J]. 胡煒. 電子設(shè)計(jì)工程. 2018(07)
[4]基于視頻深度學(xué)習(xí)的時(shí)空雙流人物動(dòng)作識(shí)別模型[J]. 楊天明,陳志,岳文靜. 計(jì)算機(jī)應(yīng)用. 2018(03)
[5]基于訓(xùn)練圖CNN特征的視頻人體動(dòng)作識(shí)別算法[J]. 曹晉其,蔣興浩,孫錟鋒. 計(jì)算機(jī)工程. 2017(11)
[6]舞蹈視頻圖像中人體動(dòng)作識(shí)別技術(shù)的研究[J]. 陳利峰. 現(xiàn)代電子技術(shù). 2017(03)
[7]基于李代數(shù)的人體手臂慣性動(dòng)作捕捉算法[J]. 劉丹,王鑫,片錦香. 沈陽(yáng)工業(yè)大學(xué)學(xué)報(bào). 2017(01)
[8]基于外形特征與運(yùn)動(dòng)特征的人體行為提取方法[J]. 韓駿浩,趙懷勛. 電子科技. 2014(10)
[9]基于骨架運(yùn)算的動(dòng)態(tài)手勢(shì)定位及識(shí)別算法[J]. 劉耀杰,舒暢,傅志中. 電子科技. 2014(03)
碩士論文
[1]基于3D骨架的室內(nèi)人體行為識(shí)別研究[D]. 彭玲.武漢工程大學(xué) 2017
[2]基于Kinect的人體動(dòng)作識(shí)別系統(tǒng)與實(shí)現(xiàn)[D]. 邊俊霞.濟(jì)南大學(xué) 2015
本文編號(hào):3187023
本文鏈接:http://sikaile.net/wenyilunwen/wdlw/3187023.html
最近更新
教材專著