人體下肢應(yīng)激微反應(yīng)自動識別
本文選題:人體下肢 + 應(yīng)激微反應(yīng)。 參考:《光學精密工程》2017年11期
【摘要】:由于現(xiàn)有的動作識別方法不能直接用于人體微反應(yīng)動作識別,本文基于人體下肢微反應(yīng)動作特點,構(gòu)建了一種時空金字塔韋伯局部描述子并設(shè)計了基于字典學習的人體下肢微反應(yīng)自動識別算法。該方法利用時空金字塔韋伯局部描述子提取每一類人體下肢微反應(yīng)動作特征,使用主成分分析法對特征降維;然后,建立每一類動作子字典并將子字典串聯(lián)形成總的動作字典;最后,通過實驗分析了金字塔級數(shù)L,降維后每類動作特征維數(shù)d_(PCA),每類動作子字典原子個數(shù)n_(Atom),以及稀疏閾值C等參數(shù)對識別結(jié)果的影響,并確定最優(yōu)參數(shù)值L=3,d_(PCA)=30,n_(Atom)=40,C=10。實驗結(jié)果表明,提出的算法對10種人體下肢微反應(yīng)動作的識別率均在0.83~0.91之間,平均識別率達到0.86,高于其他動作識別算法。設(shè)計的算法更適用于人體下肢微反應(yīng)動作分類,并可有效提高分類識別率。
[Abstract]:Because the existing motion recognition methods can not be directly used in human micro-reaction action recognition, this paper bases on the characteristics of human lower extremity micro-reaction action. A Webb local descriptor based on temporal and spatial pyramids is constructed and an automatic recognition algorithm for human lower limb microreactions based on dictionary learning is designed. In this method, the local descriptors of time and space pyramidal Weber are used to extract each kind of human lower extremity micro-reaction action feature, and the principal component analysis is used to reduce the dimension of the feature. Then, the dictionary of each kind of action sub-is established and the sub-dictionary is connected in series to form the total action dictionary. Finally, the effects of parameters such as pyramid series L, characteristic dimension d _ (PCA) of each action after dimensionality reduction, the number of dictionary atoms n _ (Atom), and sparse threshold C of each action subclass on the identification results are analyzed, and the optimal parameter L _ (3) D _ (PCA) is determined. The experimental results show that the recognition rate of the proposed algorithm for 10 kinds of human lower extremity micro-reaction actions is between 0.83 and 0.91, and the average recognition rate is 0.86, which is higher than that of other algorithms. The proposed algorithm is more suitable for the classification of human lower extremity micro-reaction and can effectively improve the classification recognition rate.
【作者單位】: 山東警察學院;山東大學高效潔凈機械制造教育部重點實驗室;山東行政學院;
【基金】:國家自然科學基金資助項目(No.51405194) 山東省自然科學基金資助項目(No.ZR2016EEP13,No.ZR2013CQ025) 山東省高等學?萍加媱澷Y助項目(No.J16LN16)
【分類號】:TP391.41
【相似文獻】
相關(guān)期刊論文 前10條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動作識別方法[J];自動化與信息工程;2009年04期
2 胡雅琴;;動作識別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期
3 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機機動飛行動作識別知識庫的建立[J];計算機仿真;2005年04期
4 程祥;;人體動作識別的研究[J];電腦知識與技術(shù);2006年20期
5 黃飛躍;徐光yP;;視角無關(guān)的動作識別[J];軟件學報;2008年07期
6 徐光yP;曹媛媛;;動作識別與行為理解綜述[J];中國圖象圖形學報;2009年02期
7 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡(luò)的人體動作識別[J];現(xiàn)代科學儀器;2012年02期
8 周艷青;王磊;;基于視覺的人體動作識別綜述[J];山東輕工業(yè)學院學報(自然科學版);2012年01期
9 曹琨;;基于檢索表的實時動作識別技術(shù)研究[J];中外企業(yè)家;2014年05期
10 劉博;安建成;;基于關(guān)鍵姿勢的人體動作識別[J];電視技術(shù);2014年05期
相關(guān)會議論文 前4條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動作識別方法[A];廣州市儀器儀表學會2009年學術(shù)年會論文集[C];2010年
2 黃飛躍;徐光yP;;自然的人體動作識別[A];第三屆和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2007)論文集[C];2007年
3 黃艷歡;葉少珍;;連續(xù)動作分割綜述[A];第十四屆全國圖象圖形學學術(shù)會議論文集[C];2008年
4 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動作的識別與理解[A];第三屆和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2007)論文集[C];2007年
相關(guān)博士學位論文 前10條
1 諶先敢;現(xiàn)實環(huán)境下的人體動作識別[D];武漢大學;2012年
2 陳淵博;視頻序列中的人體動作識別[D];北京郵電大學;2015年
3 劉翠微;視頻中人的動作分析與理解[D];北京理工大學;2015年
4 陳萌;基于李代數(shù)高斯表示的動作識別方法研究[D];華中科技大學;2016年
5 李擬s,
本文編號:2101353
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2101353.html