天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動(dòng)化論文 >

基于局部保持典型相關(guān)分析的零樣本動(dòng)作識(shí)別

發(fā)布時(shí)間:2018-12-16 13:14
【摘要】:動(dòng)作識(shí)別領(lǐng)域需要識(shí)別的類別越來越多,這使得標(biāo)注足夠多的訓(xùn)練數(shù)據(jù)越來越難.零樣本學(xué)習(xí)是針對傳統(tǒng)機(jī)器學(xué)習(xí)收集和標(biāo)注數(shù)據(jù)日益困難而提出的一種新思路.針對基于零樣本學(xué)習(xí)的動(dòng)作識(shí)別問題,提出了一種基于局部保持典型相關(guān)分析映射的方法.該方法使用流形約束的典型相關(guān)分析將視覺特征和輔助特征映射到一個(gè)公共特征空間,并且在映射過程中保留視覺特征和輔助特征的局部信息,還考慮了域轉(zhuǎn)換所帶來的不利影響,同時(shí)采用自訓(xùn)練和hubness修正等方法增強(qiáng)所提方法的魯棒性.通過在主流數(shù)據(jù)集HMDB51和UCF101上的大量實(shí)驗(yàn),表明所提方法具有較好的零樣本學(xué)習(xí)性能.
[Abstract]:More and more categories need to be recognized in the field of motion recognition, which makes it more and more difficult to label enough training data. Zero-sample learning is a new idea for traditional machine learning to collect and label data. To solve the problem of motion recognition based on zero sample learning, a method based on local preserving canonical correlation analysis mapping is proposed. The method uses canonical correlation analysis of manifold constraints to map visual and auxiliary features to a common feature space, and preserves local information of visual and auxiliary features in the mapping process. The adverse effects of domain transformation are also considered, and the robustness of the proposed method is enhanced by using self-training and hubness correction. A large number of experiments on the mainstream data sets HMDB51 and UCF101 show that the proposed method has good performance of zero-sample learning.
【作者單位】: 天津大學(xué)電氣自動(dòng)化與信息工程學(xué)院;
【基金】:國家自然科學(xué)基金資助項(xiàng)目(61271325,61472273) 天津大學(xué)“北洋學(xué)者-青年骨干”教師資助項(xiàng)目(2015XRG-0014)~~
【分類號(hào)】:TP18;TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[J];自動(dòng)化與信息工程;2009年04期

2 胡雅琴;;動(dòng)作識(shí)別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期

3 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機(jī)機(jī)動(dòng)飛行動(dòng)作識(shí)別知識(shí)庫的建立[J];計(jì)算機(jī)仿真;2005年04期

4 程祥;;人體動(dòng)作識(shí)別的研究[J];電腦知識(shí)與技術(shù);2006年20期

5 黃飛躍;徐光yP;;視角無關(guān)的動(dòng)作識(shí)別[J];軟件學(xué)報(bào);2008年07期

6 徐光yP;曹媛媛;;動(dòng)作識(shí)別與行為理解綜述[J];中國圖象圖形學(xué)報(bào);2009年02期

7 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別[J];現(xiàn)代科學(xué)儀器;2012年02期

8 周艷青;王磊;;基于視覺的人體動(dòng)作識(shí)別綜述[J];山東輕工業(yè)學(xué)院學(xué)報(bào)(自然科學(xué)版);2012年01期

9 曹琨;;基于檢索表的實(shí)時(shí)動(dòng)作識(shí)別技術(shù)研究[J];中外企業(yè)家;2014年05期

10 劉博;安建成;;基于關(guān)鍵姿勢的人體動(dòng)作識(shí)別[J];電視技術(shù);2014年05期

相關(guān)會(huì)議論文 前6條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年

2 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

3 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

4 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動(dòng)作的識(shí)別與理解[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

5 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年

6 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號(hào)動(dòng)作識(shí)別[A];2013年中國智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊)[C];2013年

相關(guān)博士學(xué)位論文 前10條

1 諶先敢;現(xiàn)實(shí)環(huán)境下的人體動(dòng)作識(shí)別[D];武漢大學(xué);2012年

2 陳淵博;視頻序列中的人體動(dòng)作識(shí)別[D];北京郵電大學(xué);2015年

3 劉翠微;視頻中人的動(dòng)作分析與理解[D];北京理工大學(xué);2015年

4 陳萌;基于李代數(shù)高斯表示的動(dòng)作識(shí)別方法研究[D];華中科技大學(xué);2016年

5 李擬s,

本文編號(hào):2382405


資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2382405.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶9577d***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com