天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

基于特權(quán)信息的人類行為識(shí)別研究

發(fā)布時(shí)間:2019-04-02 17:40
【摘要】:近年來(lái),人類行為識(shí)別作為計(jì)算機(jī)視覺(jué)的一個(gè)重要領(lǐng)域,廣泛應(yīng)用于人機(jī)交互、視頻監(jiān)控、醫(yī)療保健和視頻檢索等場(chǎng)景,為人類的生產(chǎn)和生活帶來(lái)了便利,具有廣闊的應(yīng)用前景,而魯棒的識(shí)別方法是其大規(guī)模應(yīng)用于實(shí)際場(chǎng)景的前提。本文主要提出了兩種魯棒的人類行為識(shí)別學(xué)習(xí)框架,即:基于特權(quán)信息的人類行為識(shí)別和結(jié)合特權(quán)信息的域自適應(yīng)人類行為識(shí)別。經(jīng)典人類行為識(shí)別方法通過(guò)對(duì)訓(xùn)練和測(cè)試樣本提取一致的視覺(jué)特征,學(xué)習(xí)分類器實(shí)現(xiàn)行為分類,并未涉及特權(quán)信息。本文提出了一種基于特權(quán)信息的人類行為識(shí)別框架,針對(duì)訓(xùn)練樣本提取魯棒的特權(quán)信息,輔助固有視覺(jué)特征學(xué)習(xí)新的分類器。在人體動(dòng)作識(shí)別層面,本文將人體骨架李群深度特征作為特權(quán)信息,并在兩個(gè)公開(kāi)數(shù)據(jù)集UTKinect-Action3D和Florence 3D Actions上驗(yàn)證了其有效性;在人類活動(dòng)識(shí)別層面,本文將Web周邊文本描述特征作為特權(quán)信息,并在Web數(shù)據(jù)集Flickr上驗(yàn)證了其魯棒性。經(jīng)典人類行為識(shí)別方法考慮訓(xùn)練和測(cè)試樣本具有相同的特征空間和共同的數(shù)據(jù)分布,但在現(xiàn)實(shí)應(yīng)用中獲取有標(biāo)簽的訓(xùn)練樣本耗時(shí)耗力,受限于場(chǎng)景的變換、人物的不同等原因,很難得到滿足上述條件的充足樣本。本文提出了一種結(jié)合特權(quán)信息的域自適應(yīng)人類行為識(shí)別方法,允許訓(xùn)練和測(cè)試樣本來(lái)自不同的領(lǐng)域,算法旨在最小化源域和目標(biāo)域樣本之間的分布差異,將此標(biāo)準(zhǔn)結(jié)合圖正則稀疏編碼納入目標(biāo)函數(shù)中,使得新的稀疏表達(dá)對(duì)數(shù)據(jù)分布差異具有魯棒性,同時(shí)在源域中提取特權(quán)信息,輔助固有視覺(jué)特征學(xué)習(xí)新的魯棒分類器。該算法在兩組不同域數(shù)據(jù)集組合FlickrCCV及FlickrKodak的實(shí)驗(yàn)上取得了良好的效果。
[Abstract]:In recent years, as an important field of computer vision, human behavior recognition has been widely used in human-computer interaction, video surveillance, health care and video retrieval, which has brought convenience to human production and life. It has a broad application prospect, and robust identification method is the premise of its large-scale application to the actual scene. In this paper, two robust learning frameworks for human behavior recognition are proposed, namely, human behavior recognition based on privileged information and domain adaptive human behavior recognition based on privileged information. Classical human behavior recognition methods extract consistent visual features from training and test samples and learn classifiers to achieve behavior classification without involving privileged information. In this paper, a human behavior recognition framework based on privileged information is proposed, which extracts robust privileged information for training samples and assists in learning new classifiers based on intrinsic visual features. In the aspect of human motion recognition, this paper takes the depth feature of human skeleton Li Qun as privileged information, and validates its effectiveness on two open datasets, UTKinect-Action3D and Florence 3D Actions. At the level of human activity recognition, this paper takes the Web peripheral text description feature as privileged information and validates its robustness on the Web dataset Flickr. The classical human behavior recognition method considers that training and testing samples have the same feature space and common data distribution, but it takes time and energy to obtain labeled training samples in practical applications, which is limited by the transformation of scene and the difference of characters, and so on. It is difficult to obtain sufficient samples to satisfy the above conditions. In this paper, a domain adaptive human behavior recognition method combining privileged information is proposed, which allows training and testing samples to come from different fields. The algorithm aims to minimize the distribution difference between source and target domain samples. This standard is combined with graph regular sparse coding into the objective function, which makes the new sparse expression robust to the difference of data distribution. At the same time, the privilege information is extracted from the source domain to assist the intrinsic visual feature learning of the new robust classifier. The proposed algorithm has achieved good results in the experiment of combining FlickrCCV and FlickrKodak with two sets of data sets from different domains.
【學(xué)位授予單位】:華東師范大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 劉相濱,向堅(jiān)持,王勝春;人行為識(shí)別與理解研究探討[J];計(jì)算機(jī)與現(xiàn)代化;2004年12期

2 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動(dòng)特征的行為識(shí)別[J];北京交通大學(xué)學(xué)報(bào);2009年02期

3 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測(cè)模型的多人行為識(shí)別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期

4 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識(shí)別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期

5 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識(shí)別算法[J];光電子.激光;2013年08期

6 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J];中國(guó)圖象圖形學(xué)報(bào);2014年02期

7 曾青松;余明輝;賀衛(wèi)國(guó);李玲;;一種行為識(shí)別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期

8 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識(shí)別[J];自動(dòng)化學(xué)報(bào);2010年01期

9 李英杰;尹怡欣;鄧飛;;一種有效的行為識(shí)別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期

10 王新旭;;基于視覺(jué)的人體行為識(shí)別研究[J];中國(guó)新通信;2012年21期

相關(guān)會(huì)議論文 前7條

1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺(jué)察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識(shí)別[A];2007中國(guó)控制與決策學(xué)術(shù)年會(huì)論文集[C];2007年

4 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡(jiǎn)單人物行為識(shí)別研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

5 安國(guó)成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國(guó)智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年

6 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用研究[A];2013年全國(guó)通信軟件學(xué)術(shù)會(huì)議論文集[C];2013年

7 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

相關(guān)重要報(bào)紙文章 前4條

1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日?qǐng)?bào);2001年

2 農(nóng)發(fā)行鹿邑支行黨支部書記 行長(zhǎng) 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日?qǐng)?bào);2007年

3 東林;行為識(shí)別新技術(shù)讓監(jiān)控沒(méi)有“死角”[N];人民公安報(bào);2007年

4 田凱 徐蕊 李政育 信木祥;博物館安全的國(guó)際經(jīng)驗(yàn)[N];中國(guó)文物報(bào);2014年

相關(guān)博士學(xué)位論文 前10條

1 邵延華;基于計(jì)算機(jī)視覺(jué)的人體行為識(shí)別研究[D];重慶大學(xué);2015年

2 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年

3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年

4 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年

5 裴利沈;視頻中人體行為識(shí)別若干問(wèn)題研究[D];電子科技大學(xué);2016年

6 周同馳;行為識(shí)別中基于局部時(shí)空關(guān)系的特征模型研究[D];東南大學(xué);2016年

7 徐海燕;復(fù)雜環(huán)境下行為識(shí)別特征提取方法研究[D];東南大學(xué);2016年

8 吳云鵬;集體行為的識(shí)別與仿真研究[D];鄭州大學(xué);2017年

9 劉艷秋;舍飼環(huán)境下母羊產(chǎn)前典型行為識(shí)別方法研究[D];內(nèi)蒙古農(nóng)業(yè)大學(xué);2017年

10 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年

相關(guān)碩士學(xué)位論文 前10條

1 唐小琴;基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究[D];西南大學(xué);2015年

2 胡秋揚(yáng);可穿戴式個(gè)人室內(nèi)位置和行為監(jiān)測(cè)系統(tǒng)[D];浙江大學(xué);2015年

3 陳鈺昕;基于時(shí)空特性的人體行為識(shí)別研究[D];燕山大學(xué);2015年

4 任亮;智能車環(huán)境下車輛典型行為識(shí)別方法研究[D];長(zhǎng)安大學(xué);2015年

5 金澤豪;并行化的人體行為識(shí)別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年

6 王呈;穿戴式多傳感器人體日;顒(dòng)監(jiān)測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年

7 王露;基于稀疏時(shí)空特征的人體行為識(shí)別研究[D];蘇州大學(xué);2015年

8 于靜;基于物品信息和人體深度信息的行為識(shí)別研究[D];山東大學(xué);2015年

9 章瑜;人體運(yùn)動(dòng)行為識(shí)別相關(guān)方法研究[D];南京師范大學(xué);2015年

10 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年



本文編號(hào):2452761

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2452761.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶73000***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com