融合生成模型和判別模型的雙層RBM運動捕獲數(shù)據(jù)語義識別算法
[Abstract]:In view of the problem that there is often semantic gap between the bottom features and the high-level semantics of human motion capture data, a semantic recognition algorithm for motion capture data is proposed, which integrates the constrained Boltzmann machine generation model and the discriminant model, combined with the idea of in-depth learning. The two-layer constrained Boltzmann machine is used to extract discriminative features (feature extraction layer) and style recognition (semantic discrimination layer) of motion capture data respectively. Firstly, considering that autoregressive model has excellent ability to express time series information, a conditional constrained Boltzmann machine generation model based on the interaction of single channel and three factors is constructed to extract spatio-temporal feature information of motion capture data. Then, the extracted feature is coupled with the corresponding style tag, which is used as the input of the current frame data layer of the restricted Boltzmann machine discriminant model in the semantic discrimination layer, and the training of the single frame style recognition is carried out. Finally, on the basis of obtaining the parameters of each frame, the voting space is added to the top of the model to realize the effective recognition of the style semantics of motion capture sequences. The experimental results show that the proposed algorithm has good robustness and extensibility and can meet the requirements of diverse motion sequence recognition and facilitate the effective reuse of data.
【作者單位】: 華僑大學計算機科學與技術學院;廈門市模式識別與計算機視覺重點實驗室;
【基金】:國家自然科學基金(61673185,61673186) 福建省自然科學基金(2015J01656) 華僑大學科研創(chuàng)新能力培養(yǎng)資助項目(1511414012)
【分類號】:TP391.41;TP391.9
【相似文獻】
相關期刊論文 前10條
1 劉賢梅;沈志明;文必龍;;基于運動捕獲數(shù)據(jù)的人體運動融合[J];科學技術與工程;2011年12期
2 吳玲達;瞿師;魏迎梅;于榮歡;;一種運動捕獲數(shù)據(jù)重用方法[J];小型微型計算機系統(tǒng);2012年11期
3 彭淑娟;柳欣;崔振;鄭光;;分段式低秩逼近的運動捕獲數(shù)據(jù)去噪方法[J];計算機科學;2013年09期
4 楊躍東;王莉莉;郝愛民;封春升;;基于幾何特征的人體運動捕獲數(shù)據(jù)分割方法[J];系統(tǒng)仿真學報;2007年10期
5 楊躍東;王莉莉;郝愛民;;運動串:一種用于行為分割的運動捕獲數(shù)據(jù)表示方法[J];計算機研究與發(fā)展;2008年03期
6 石榮;;基于運動捕獲數(shù)據(jù)的目標導向運動合成[J];計算機應用與軟件;2012年07期
7 彭淑娟;柳欣;;一種結合雙特征的運動捕獲數(shù)據(jù)行為分割方法[J];計算機科學;2013年08期
8 藍榮yN;孫懷江;連荷清;祝銘陽;李斌;;人體運動捕獲數(shù)據(jù)的向量空間建模與檢索[J];計算機輔助設計與圖形學學報;2011年08期
9 潘華偉;孟奇;高春鳴;雷淵;;一種新的運動捕獲數(shù)據(jù)轉換方法[J];計算機工程;2012年02期
10 劉賢梅;李冰;吳瓊;;基于運動捕獲數(shù)據(jù)的虛擬人動畫研究[J];計算機工程與應用;2008年08期
相關會議論文 前3條
1 嚴駿馳;朱夢源;劉允才;;基于多目視覺的三維人體運動捕獲和渲染[A];圖像圖形技術研究與應用(2010)[C];2010年
2 高湘冀;鄭江濱;;基于視覺運動捕獲數(shù)據(jù)的三維模型驅動方法[A];第八屆全國信號與信息處理聯(lián)合學術會議論文集[C];2009年
3 向堅;;基于子空間的運動索引[A];中國儀器儀表學會第九屆青年學術會議論文集[C];2007年
相關重要報紙文章 前1條
1 本報記者 吳德群;跑跑跳跳照樣能測心律心電圖[N];深圳特區(qū)報;2009年
相關博士學位論文 前5條
1 呂娜;運動捕獲數(shù)據(jù)的檢索和分割技術研究[D];山東大學;2014年
2 瞿師;基于運動捕獲的人體運動生成與編輯關鍵技術研究[D];國防科學技術大學;2011年
3 藍榮yN;人體運動捕獲數(shù)據(jù)的建模與重用研究[D];南京理工大學;2014年
4 邱顯杰;基于視頻的三維人體運動捕獲方法研究[D];中國科學院研究生院(計算技術研究所);2006年
5 肖俊;智能人體動畫若干關鍵技術研究[D];浙江大學;2007年
相關碩士學位論文 前10條
1 杜戰(zhàn)戰(zhàn);人體運動捕獲數(shù)據(jù)的分析方法研究[D];南京理工大學;2015年
2 謝艷梅;融合深度圖和三維模型的人體運動捕獲技術研究[D];西安工業(yè)大學;2015年
3 王豫;基于Kinect的手臂關節(jié)三維運動捕獲[D];浙江大學;2015年
4 洪小嬌;運動捕獲數(shù)據(jù)關鍵幀提取與姿態(tài)過渡技術研究[D];華僑大學;2015年
5 徐從洋;運動捕獲數(shù)據(jù)關鍵幀提取與檢索算法研究[D];鄭州大學;2016年
6 李曉陽;基于運動捕獲數(shù)據(jù)的三維模型動畫研究與實現(xiàn)[D];鄭州大學;2016年
7 赫高峰;運動捕獲數(shù)據(jù)重構及檢索關鍵技術的研究[D];華僑大學;2016年
8 王健;基于單目視頻的人體運動捕獲技術研究與實現(xiàn)[D];華中科技大學;2007年
9 孫軍;基于運動捕獲數(shù)據(jù)的運動混合技術研究與實現(xiàn)[D];華中科技大學;2007年
10 馮鋒;人體運動捕獲數(shù)據(jù)的分割算法研究[D];南京理工大學;2011年
,本文編號:2464495
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2464495.html