融合生成模型和判別模型的雙層RBM運(yùn)動(dòng)捕獲數(shù)據(jù)語(yǔ)義識(shí)別算法
[Abstract]:In view of the problem that there is often semantic gap between the bottom features and the high-level semantics of human motion capture data, a semantic recognition algorithm for motion capture data is proposed, which integrates the constrained Boltzmann machine generation model and the discriminant model, combined with the idea of in-depth learning. The two-layer constrained Boltzmann machine is used to extract discriminative features (feature extraction layer) and style recognition (semantic discrimination layer) of motion capture data respectively. Firstly, considering that autoregressive model has excellent ability to express time series information, a conditional constrained Boltzmann machine generation model based on the interaction of single channel and three factors is constructed to extract spatio-temporal feature information of motion capture data. Then, the extracted feature is coupled with the corresponding style tag, which is used as the input of the current frame data layer of the restricted Boltzmann machine discriminant model in the semantic discrimination layer, and the training of the single frame style recognition is carried out. Finally, on the basis of obtaining the parameters of each frame, the voting space is added to the top of the model to realize the effective recognition of the style semantics of motion capture sequences. The experimental results show that the proposed algorithm has good robustness and extensibility and can meet the requirements of diverse motion sequence recognition and facilitate the effective reuse of data.
【作者單位】: 華僑大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院;廈門(mén)市模式識(shí)別與計(jì)算機(jī)視覺(jué)重點(diǎn)實(shí)驗(yàn)室;
【基金】:國(guó)家自然科學(xué)基金(61673185,61673186) 福建省自然科學(xué)基金(2015J01656) 華僑大學(xué)科研創(chuàng)新能力培養(yǎng)資助項(xiàng)目(1511414012)
【分類號(hào)】:TP391.41;TP391.9
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 劉賢梅;沈志明;文必龍;;基于運(yùn)動(dòng)捕獲數(shù)據(jù)的人體運(yùn)動(dòng)融合[J];科學(xué)技術(shù)與工程;2011年12期
2 吳玲達(dá);瞿師;魏迎梅;于榮歡;;一種運(yùn)動(dòng)捕獲數(shù)據(jù)重用方法[J];小型微型計(jì)算機(jī)系統(tǒng);2012年11期
3 彭淑娟;柳欣;崔振;鄭光;;分段式低秩逼近的運(yùn)動(dòng)捕獲數(shù)據(jù)去噪方法[J];計(jì)算機(jī)科學(xué);2013年09期
4 楊躍東;王莉莉;郝愛(ài)民;封春升;;基于幾何特征的人體運(yùn)動(dòng)捕獲數(shù)據(jù)分割方法[J];系統(tǒng)仿真學(xué)報(bào);2007年10期
5 楊躍東;王莉莉;郝愛(ài)民;;運(yùn)動(dòng)串:一種用于行為分割的運(yùn)動(dòng)捕獲數(shù)據(jù)表示方法[J];計(jì)算機(jī)研究與發(fā)展;2008年03期
6 石榮;;基于運(yùn)動(dòng)捕獲數(shù)據(jù)的目標(biāo)導(dǎo)向運(yùn)動(dòng)合成[J];計(jì)算機(jī)應(yīng)用與軟件;2012年07期
7 彭淑娟;柳欣;;一種結(jié)合雙特征的運(yùn)動(dòng)捕獲數(shù)據(jù)行為分割方法[J];計(jì)算機(jī)科學(xué);2013年08期
8 藍(lán)榮yN;孫懷江;連荷清;祝銘陽(yáng);李斌;;人體運(yùn)動(dòng)捕獲數(shù)據(jù)的向量空間建模與檢索[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2011年08期
9 潘華偉;孟奇;高春鳴;雷淵;;一種新的運(yùn)動(dòng)捕獲數(shù)據(jù)轉(zhuǎn)換方法[J];計(jì)算機(jī)工程;2012年02期
10 劉賢梅;李冰;吳瓊;;基于運(yùn)動(dòng)捕獲數(shù)據(jù)的虛擬人動(dòng)畫(huà)研究[J];計(jì)算機(jī)工程與應(yīng)用;2008年08期
相關(guān)會(huì)議論文 前3條
1 嚴(yán)駿馳;朱夢(mèng)源;劉允才;;基于多目視覺(jué)的三維人體運(yùn)動(dòng)捕獲和渲染[A];圖像圖形技術(shù)研究與應(yīng)用(2010)[C];2010年
2 高湘冀;鄭江濱;;基于視覺(jué)運(yùn)動(dòng)捕獲數(shù)據(jù)的三維模型驅(qū)動(dòng)方法[A];第八屆全國(guó)信號(hào)與信息處理聯(lián)合學(xué)術(shù)會(huì)議論文集[C];2009年
3 向堅(jiān);;基于子空間的運(yùn)動(dòng)索引[A];中國(guó)儀器儀表學(xué)會(huì)第九屆青年學(xué)術(shù)會(huì)議論文集[C];2007年
相關(guān)重要報(bào)紙文章 前1條
1 本報(bào)記者 吳德群;跑跑跳跳照樣能測(cè)心律心電圖[N];深圳特區(qū)報(bào);2009年
相關(guān)博士學(xué)位論文 前5條
1 呂娜;運(yùn)動(dòng)捕獲數(shù)據(jù)的檢索和分割技術(shù)研究[D];山東大學(xué);2014年
2 瞿師;基于運(yùn)動(dòng)捕獲的人體運(yùn)動(dòng)生成與編輯關(guān)鍵技術(shù)研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2011年
3 藍(lán)榮yN;人體運(yùn)動(dòng)捕獲數(shù)據(jù)的建模與重用研究[D];南京理工大學(xué);2014年
4 邱顯杰;基于視頻的三維人體運(yùn)動(dòng)捕獲方法研究[D];中國(guó)科學(xué)院研究生院(計(jì)算技術(shù)研究所);2006年
5 肖俊;智能人體動(dòng)畫(huà)若干關(guān)鍵技術(shù)研究[D];浙江大學(xué);2007年
相關(guān)碩士學(xué)位論文 前10條
1 杜戰(zhàn)戰(zhàn);人體運(yùn)動(dòng)捕獲數(shù)據(jù)的分析方法研究[D];南京理工大學(xué);2015年
2 謝艷梅;融合深度圖和三維模型的人體運(yùn)動(dòng)捕獲技術(shù)研究[D];西安工業(yè)大學(xué);2015年
3 王豫;基于Kinect的手臂關(guān)節(jié)三維運(yùn)動(dòng)捕獲[D];浙江大學(xué);2015年
4 洪小嬌;運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀提取與姿態(tài)過(guò)渡技術(shù)研究[D];華僑大學(xué);2015年
5 徐從洋;運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀提取與檢索算法研究[D];鄭州大學(xué);2016年
6 李曉陽(yáng);基于運(yùn)動(dòng)捕獲數(shù)據(jù)的三維模型動(dòng)畫(huà)研究與實(shí)現(xiàn)[D];鄭州大學(xué);2016年
7 赫高峰;運(yùn)動(dòng)捕獲數(shù)據(jù)重構(gòu)及檢索關(guān)鍵技術(shù)的研究[D];華僑大學(xué);2016年
8 王健;基于單目視頻的人體運(yùn)動(dòng)捕獲技術(shù)研究與實(shí)現(xiàn)[D];華中科技大學(xué);2007年
9 孫軍;基于運(yùn)動(dòng)捕獲數(shù)據(jù)的運(yùn)動(dòng)混合技術(shù)研究與實(shí)現(xiàn)[D];華中科技大學(xué);2007年
10 馮鋒;人體運(yùn)動(dòng)捕獲數(shù)據(jù)的分割算法研究[D];南京理工大學(xué);2011年
,本文編號(hào):2464495
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2464495.html