天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

基于隱任務(wù)學(xué)習(xí)的動(dòng)作識(shí)別方法

發(fā)布時(shí)間:2018-08-06 09:32
【摘要】:提出一種基于多分類隱任務(wù)學(xué)習(xí)的動(dòng)作識(shí)別方法.將多個(gè)動(dòng)作共享的一組子動(dòng)作作為隱任務(wù),通過(guò)對(duì)隱任務(wù)的聯(lián)合學(xué)習(xí)來(lái)建模動(dòng)作之間的關(guān)聯(lián),從而訓(xùn)練動(dòng)作分類器并對(duì)視頻中人的動(dòng)作進(jìn)行識(shí)別.利用基于softmax的多分類模型學(xué)習(xí)多個(gè)動(dòng)作之間的隱任務(wù),能夠有效防止動(dòng)作識(shí)別過(guò)程中的二義性,同時(shí)計(jì)算簡(jiǎn)單,節(jié)省了模型訓(xùn)練時(shí)間.在UCF sports和Olympic sports數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文提出的多分類隱任務(wù)學(xué)習(xí)方法在迭代一次的時(shí)間上從130s縮短至0.5s,并且能更有效地識(shí)別視頻中的動(dòng)作.
[Abstract]:An action recognition method based on multi-classification hidden task learning is proposed. A group of sub-actions shared by multiple actions are considered as hidden tasks. The association between actions is modeled by joint learning of hidden tasks, and then the motion classifier is trained and the human actions in video are recognized. Using the multi-classification model based on softmax to learn the hidden tasks between actions can effectively prevent the ambiguity in the process of motion recognition and the calculation is simple and the training time of the model is saved. The experimental results on UCF sports and Olympic sports datasets show that the proposed multi-classification hidden task learning method can reduce the iterative time from 130s to 0.5s, and it can recognize the motion in video more effectively.
【作者單位】: 北京理工大學(xué)計(jì)算機(jī)學(xué)院智能信息技術(shù)北京市重點(diǎn)實(shí)驗(yàn)室;
【基金】:國(guó)家自然科學(xué)基金資助項(xiàng)目(61673062,61472038)
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[J];自動(dòng)化與信息工程;2009年04期

2 胡雅琴;;動(dòng)作識(shí)別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期

3 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機(jī)機(jī)動(dòng)飛行動(dòng)作識(shí)別知識(shí)庫(kù)的建立[J];計(jì)算機(jī)仿真;2005年04期

4 程祥;;人體動(dòng)作識(shí)別的研究[J];電腦知識(shí)與技術(shù);2006年20期

5 黃飛躍;徐光yP;;視角無(wú)關(guān)的動(dòng)作識(shí)別[J];軟件學(xué)報(bào);2008年07期

6 徐光yP;曹媛媛;;動(dòng)作識(shí)別與行為理解綜述[J];中國(guó)圖象圖形學(xué)報(bào);2009年02期

7 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別[J];現(xiàn)代科學(xué)儀器;2012年02期

8 周艷青;王磊;;基于視覺的人體動(dòng)作識(shí)別綜述[J];山東輕工業(yè)學(xué)院學(xué)報(bào)(自然科學(xué)版);2012年01期

9 曹琨;;基于檢索表的實(shí)時(shí)動(dòng)作識(shí)別技術(shù)研究[J];中外企業(yè)家;2014年05期

10 劉博;安建成;;基于關(guān)鍵姿勢(shì)的人體動(dòng)作識(shí)別[J];電視技術(shù);2014年05期

相關(guān)會(huì)議論文 前6條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年

2 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

3 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

4 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動(dòng)作的識(shí)別與理解[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

5 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年

6 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號(hào)動(dòng)作識(shí)別[A];2013年中國(guó)智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊(cè))[C];2013年

相關(guān)博士學(xué)位論文 前10條

1 諶先敢;現(xiàn)實(shí)環(huán)境下的人體動(dòng)作識(shí)別[D];武漢大學(xué);2012年

2 陳淵博;視頻序列中的人體動(dòng)作識(shí)別[D];北京郵電大學(xué);2015年

3 劉翠微;視頻中人的動(dòng)作分析與理解[D];北京理工大學(xué);2015年

4 陳萌;基于李代數(shù)高斯表示的動(dòng)作識(shí)別方法研究[D];華中科技大學(xué);2016年

5 李擬s,

本文編號(hào):2167312


資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2167312.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a44ca***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com