天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

人體動(dòng)作識(shí)別中基于HTM架構(gòu)的時(shí)空特征提取方法

發(fā)布時(shí)間:2018-07-25 08:41
【摘要】:針對(duì)人體動(dòng)作識(shí)別中時(shí)空特征提取問(wèn)題,提出一種基于層次時(shí)間記憶(HTM)架構(gòu)的深度學(xué)習(xí)模型,用來(lái)提取圖像幀的時(shí)空特征。將圖像幀構(gòu)建成樹(shù)型節(jié)點(diǎn)層次結(jié)構(gòu),在每一層中,通過(guò)歐氏距離分組來(lái)提取圖像樣本的空間特征,利用時(shí)間鄰接矩陣提取樣本的時(shí)間特征,利用置信傳播方法將各層局部特征組進(jìn)行匯總歸類(lèi),得到整體特征組,作為該圖像幀的時(shí)空特征。此外,在節(jié)點(diǎn)操作中引入張量代數(shù),從而避免出現(xiàn)高維特征,將特征送入支持向量機(jī)(SVM)分類(lèi)器進(jìn)行識(shí)別分類(lèi)。在MSR Gesture 3D和KTH動(dòng)作數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果表明,提出的方法能夠有效提取出高分類(lèi)性能的時(shí)空特征,分類(lèi)準(zhǔn)確率高于其他幾種較新的方法。
[Abstract]:A depth learning model based on hierarchical temporal memory (HTM) architecture is proposed to extract temporal and spatial features of image frames. In each layer, the spatial features of the image samples are extracted by Euclidean distance grouping, and the temporal features of the samples are extracted by the time adjacency matrix. The local feature groups of each layer are classified by confidence propagation method, and the global feature group is obtained as the space-time feature of the image frame. In addition, the Zhang Liang algebra is introduced into the node operation to avoid the appearance of high-dimensional features, and the features are sent to the support vector machine (SVM) (SVM) classifier for recognition and classification. The experimental results on MSR Gesture 3D and KTH action database show that the proposed method can effectively extract the space-time features of high classification performance, and the classification accuracy is higher than that of other new methods.
【作者單位】: 平頂山學(xué)院教師教育學(xué)院;周口師范學(xué)院網(wǎng)絡(luò)工程學(xué)院;西北大學(xué)可視化研究所;
【基金】:河南省科技廳科技發(fā)展計(jì)劃軟科學(xué)資助項(xiàng)目(132400410927);河南省科技廳科技發(fā)展計(jì)劃科技攻關(guān)項(xiàng)目(122400450356)
【分類(lèi)號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[J];自動(dòng)化與信息工程;2009年04期

2 胡雅琴;;動(dòng)作識(shí)別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期

3 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機(jī)機(jī)動(dòng)飛行動(dòng)作識(shí)別知識(shí)庫(kù)的建立[J];計(jì)算機(jī)仿真;2005年04期

4 程祥;;人體動(dòng)作識(shí)別的研究[J];電腦知識(shí)與技術(shù);2006年20期

5 黃飛躍;徐光yP;;視角無(wú)關(guān)的動(dòng)作識(shí)別[J];軟件學(xué)報(bào);2008年07期

6 徐光yP;曹媛媛;;動(dòng)作識(shí)別與行為理解綜述[J];中國(guó)圖象圖形學(xué)報(bào);2009年02期

7 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別[J];現(xiàn)代科學(xué)儀器;2012年02期

8 周艷青;王磊;;基于視覺(jué)的人體動(dòng)作識(shí)別綜述[J];山東輕工業(yè)學(xué)院學(xué)報(bào)(自然科學(xué)版);2012年01期

9 曹琨;;基于檢索表的實(shí)時(shí)動(dòng)作識(shí)別技術(shù)研究[J];中外企業(yè)家;2014年05期

10 劉博;安建成;;基于關(guān)鍵姿勢(shì)的人體動(dòng)作識(shí)別[J];電視技術(shù);2014年05期

相關(guān)會(huì)議論文 前10條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年

2 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

3 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

4 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動(dòng)作的識(shí)別與理解[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

5 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年

6 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號(hào)動(dòng)作識(shí)別[A];2013年中國(guó)智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊(cè))[C];2013年

7 潘榮江;孟祥旭;楊承磊;王銳;;旋轉(zhuǎn)體的幾何特征提取方法[A];第一屆建立和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2005)論文集[C];2005年

8 薛燕;李建良;朱學(xué)芳;;人臉識(shí)別中特征提取的一種改進(jìn)方法[A];第十三屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2006年

9 杜栓平;曹正良;;時(shí)間—頻率域特征提取及其應(yīng)用[A];2005年全國(guó)水聲學(xué)學(xué)術(shù)會(huì)議論文集[C];2005年

10 黃先鋒;韓傳久;陳旭;周劍軍;;運(yùn)動(dòng)目標(biāo)的分割與特征提取[A];全國(guó)第二屆信號(hào)處理與應(yīng)用學(xué)術(shù)會(huì)議專(zhuān)刊[C];2008年

相關(guān)重要報(bào)紙文章 前1條

1 河北 張建;用VC把TXT文件轉(zhuǎn)化成HTM文件[N];電腦報(bào);2003年

相關(guān)博士學(xué)位論文 前10條

1 王亮亮;基于視覺(jué)的人體動(dòng)作識(shí)別研究[D];哈爾濱工業(yè)大學(xué);2017年

2 諶先敢;現(xiàn)實(shí)環(huán)境下的人體動(dòng)作識(shí)別[D];武漢大學(xué);2012年

3 陳淵博;視頻序列中的人體動(dòng)作識(shí)別[D];北京郵電大學(xué);2015年

4 劉翠微;視頻中人的動(dòng)作分析與理解[D];北京理工大學(xué);2015年

5 陳萌;基于李代數(shù)高斯表示的動(dòng)作識(shí)別方法研究[D];華中科技大學(xué);2016年

6 李擬s,

本文編號(hào):2143257


資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2143257.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)b08af***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com