天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

融合生成模型和判別模型的雙層RBM運(yùn)動(dòng)捕獲數(shù)據(jù)語(yǔ)義識(shí)別算法

發(fā)布時(shí)間:2019-04-24 13:43
【摘要】:對(duì)人體運(yùn)動(dòng)捕獲數(shù)據(jù)底層特征和高層語(yǔ)義之間常常存在語(yǔ)義鴻溝的問(wèn)題,結(jié)合深度學(xué)習(xí)思想,提出一種融合受限玻爾茲曼機(jī)生成模型和判別模型的運(yùn)動(dòng)捕獲數(shù)據(jù)語(yǔ)義識(shí)別算法.該算法采用雙層受限玻爾茲曼機(jī),分別對(duì)運(yùn)動(dòng)捕獲數(shù)據(jù)進(jìn)行判別性特征提取(特征提取層)和風(fēng)格識(shí)別(語(yǔ)義判別層),首先考慮到自回歸模型對(duì)時(shí)序信息具有出色的表達(dá)能力,構(gòu)建一種基于單通道三元因子交互的條件限制玻爾茲曼機(jī)生成模型,用于提取運(yùn)動(dòng)捕捉數(shù)據(jù)的時(shí)空特征信息;然后將提取出的特征與對(duì)應(yīng)的風(fēng)格標(biāo)簽相耦合,作為語(yǔ)義判別層中受限玻爾茲曼機(jī)判別模型的當(dāng)前幀數(shù)據(jù)層輸入,進(jìn)行單幀風(fēng)格識(shí)別的訓(xùn)練;最后在獲得各幀參數(shù)的基礎(chǔ)上,在模型頂部加入投票空間實(shí)現(xiàn)對(duì)運(yùn)動(dòng)捕捉序列的風(fēng)格語(yǔ)義的有效識(shí)別.實(shí)驗(yàn)結(jié)果表明,文中算法具有良好的魯棒性和可擴(kuò)展性,能夠滿足多樣化運(yùn)動(dòng)序列識(shí)別的需求,便于數(shù)據(jù)的有效重用.
[Abstract]:In view of the problem that there is often semantic gap between the bottom features and the high-level semantics of human motion capture data, a semantic recognition algorithm for motion capture data is proposed, which integrates the constrained Boltzmann machine generation model and the discriminant model, combined with the idea of in-depth learning. The two-layer constrained Boltzmann machine is used to extract discriminative features (feature extraction layer) and style recognition (semantic discrimination layer) of motion capture data respectively. Firstly, considering that autoregressive model has excellent ability to express time series information, a conditional constrained Boltzmann machine generation model based on the interaction of single channel and three factors is constructed to extract spatio-temporal feature information of motion capture data. Then, the extracted feature is coupled with the corresponding style tag, which is used as the input of the current frame data layer of the restricted Boltzmann machine discriminant model in the semantic discrimination layer, and the training of the single frame style recognition is carried out. Finally, on the basis of obtaining the parameters of each frame, the voting space is added to the top of the model to realize the effective recognition of the style semantics of motion capture sequences. The experimental results show that the proposed algorithm has good robustness and extensibility and can meet the requirements of diverse motion sequence recognition and facilitate the effective reuse of data.
【作者單位】: 華僑大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院;廈門(mén)市模式識(shí)別與計(jì)算機(jī)視覺(jué)重點(diǎn)實(shí)驗(yàn)室;
【基金】:國(guó)家自然科學(xué)基金(61673185,61673186) 福建省自然科學(xué)基金(2015J01656) 華僑大學(xué)科研創(chuàng)新能力培養(yǎng)資助項(xiàng)目(1511414012)
【分類號(hào)】:TP391.41;TP391.9

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 劉賢梅;沈志明;文必龍;;基于運(yùn)動(dòng)捕獲數(shù)據(jù)的人體運(yùn)動(dòng)融合[J];科學(xué)技術(shù)與工程;2011年12期

2 吳玲達(dá);瞿師;魏迎梅;于榮歡;;一種運(yùn)動(dòng)捕獲數(shù)據(jù)重用方法[J];小型微型計(jì)算機(jī)系統(tǒng);2012年11期

3 彭淑娟;柳欣;崔振;鄭光;;分段式低秩逼近的運(yùn)動(dòng)捕獲數(shù)據(jù)去噪方法[J];計(jì)算機(jī)科學(xué);2013年09期

4 楊躍東;王莉莉;郝愛(ài)民;封春升;;基于幾何特征的人體運(yùn)動(dòng)捕獲數(shù)據(jù)分割方法[J];系統(tǒng)仿真學(xué)報(bào);2007年10期

5 楊躍東;王莉莉;郝愛(ài)民;;運(yùn)動(dòng)串:一種用于行為分割的運(yùn)動(dòng)捕獲數(shù)據(jù)表示方法[J];計(jì)算機(jī)研究與發(fā)展;2008年03期

6 石榮;;基于運(yùn)動(dòng)捕獲數(shù)據(jù)的目標(biāo)導(dǎo)向運(yùn)動(dòng)合成[J];計(jì)算機(jī)應(yīng)用與軟件;2012年07期

7 彭淑娟;柳欣;;一種結(jié)合雙特征的運(yùn)動(dòng)捕獲數(shù)據(jù)行為分割方法[J];計(jì)算機(jī)科學(xué);2013年08期

8 藍(lán)榮yN;孫懷江;連荷清;祝銘陽(yáng);李斌;;人體運(yùn)動(dòng)捕獲數(shù)據(jù)的向量空間建模與檢索[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2011年08期

9 潘華偉;孟奇;高春鳴;雷淵;;一種新的運(yùn)動(dòng)捕獲數(shù)據(jù)轉(zhuǎn)換方法[J];計(jì)算機(jī)工程;2012年02期

10 劉賢梅;李冰;吳瓊;;基于運(yùn)動(dòng)捕獲數(shù)據(jù)的虛擬人動(dòng)畫(huà)研究[J];計(jì)算機(jī)工程與應(yīng)用;2008年08期

相關(guān)會(huì)議論文 前3條

1 嚴(yán)駿馳;朱夢(mèng)源;劉允才;;基于多目視覺(jué)的三維人體運(yùn)動(dòng)捕獲和渲染[A];圖像圖形技術(shù)研究與應(yīng)用(2010)[C];2010年

2 高湘冀;鄭江濱;;基于視覺(jué)運(yùn)動(dòng)捕獲數(shù)據(jù)的三維模型驅(qū)動(dòng)方法[A];第八屆全國(guó)信號(hào)與信息處理聯(lián)合學(xué)術(shù)會(huì)議論文集[C];2009年

3 向堅(jiān);;基于子空間的運(yùn)動(dòng)索引[A];中國(guó)儀器儀表學(xué)會(huì)第九屆青年學(xué)術(shù)會(huì)議論文集[C];2007年

相關(guān)重要報(bào)紙文章 前1條

1 本報(bào)記者 吳德群;跑跑跳跳照樣能測(cè)心律心電圖[N];深圳特區(qū)報(bào);2009年

相關(guān)博士學(xué)位論文 前5條

1 呂娜;運(yùn)動(dòng)捕獲數(shù)據(jù)的檢索和分割技術(shù)研究[D];山東大學(xué);2014年

2 瞿師;基于運(yùn)動(dòng)捕獲的人體運(yùn)動(dòng)生成與編輯關(guān)鍵技術(shù)研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2011年

3 藍(lán)榮yN;人體運(yùn)動(dòng)捕獲數(shù)據(jù)的建模與重用研究[D];南京理工大學(xué);2014年

4 邱顯杰;基于視頻的三維人體運(yùn)動(dòng)捕獲方法研究[D];中國(guó)科學(xué)院研究生院(計(jì)算技術(shù)研究所);2006年

5 肖俊;智能人體動(dòng)畫(huà)若干關(guān)鍵技術(shù)研究[D];浙江大學(xué);2007年

相關(guān)碩士學(xué)位論文 前10條

1 杜戰(zhàn)戰(zhàn);人體運(yùn)動(dòng)捕獲數(shù)據(jù)的分析方法研究[D];南京理工大學(xué);2015年

2 謝艷梅;融合深度圖和三維模型的人體運(yùn)動(dòng)捕獲技術(shù)研究[D];西安工業(yè)大學(xué);2015年

3 王豫;基于Kinect的手臂關(guān)節(jié)三維運(yùn)動(dòng)捕獲[D];浙江大學(xué);2015年

4 洪小嬌;運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀提取與姿態(tài)過(guò)渡技術(shù)研究[D];華僑大學(xué);2015年

5 徐從洋;運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀提取與檢索算法研究[D];鄭州大學(xué);2016年

6 李曉陽(yáng);基于運(yùn)動(dòng)捕獲數(shù)據(jù)的三維模型動(dòng)畫(huà)研究與實(shí)現(xiàn)[D];鄭州大學(xué);2016年

7 赫高峰;運(yùn)動(dòng)捕獲數(shù)據(jù)重構(gòu)及檢索關(guān)鍵技術(shù)的研究[D];華僑大學(xué);2016年

8 王健;基于單目視頻的人體運(yùn)動(dòng)捕獲技術(shù)研究與實(shí)現(xiàn)[D];華中科技大學(xué);2007年

9 孫軍;基于運(yùn)動(dòng)捕獲數(shù)據(jù)的運(yùn)動(dòng)混合技術(shù)研究與實(shí)現(xiàn)[D];華中科技大學(xué);2007年

10 馮鋒;人體運(yùn)動(dòng)捕獲數(shù)據(jù)的分割算法研究[D];南京理工大學(xué);2011年

,

本文編號(hào):2464495

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2464495.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a83ee***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com