天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

視頻中人體行為識(shí)別的研究

發(fā)布時(shí)間:2019-05-31 15:12
【摘要】:視頻中的人體行為識(shí)別技術(shù)一直以來(lái)都是計(jì)算機(jī)視覺(jué)領(lǐng)域中一個(gè)非;钴S研究課題,在智能監(jiān)控、視頻檢索、人機(jī)交互等領(lǐng)域應(yīng)用廣泛。本文主要研究視頻中人體行為識(shí)別的方法。主要思路是通過(guò)時(shí)空興趣點(diǎn)獲得極具價(jià)值的行為底層特征信息,通過(guò)視覺(jué)詞袋模型得到行為特征的人體行為知識(shí)詞典,通過(guò)行為特征訓(xùn)練學(xué)習(xí)產(chǎn)生人體行為模式。為了提高復(fù)雜場(chǎng)景下的人體行為識(shí)別的準(zhǔn)確率,本文對(duì)傳統(tǒng)的特征提取和描述方法加以改進(jìn),主要的工作內(nèi)容如下:(1)深入探討了人體行為識(shí)別過(guò)程中各個(gè)階段的關(guān)鍵技術(shù)。對(duì)3D Harris、Dollar時(shí)空興趣點(diǎn)檢測(cè)方法做了研究和分析,探討了時(shí)空興趣點(diǎn)特征描述方法,包括HOG、HOF、3D HOG描述子。運(yùn)用視覺(jué)詞袋模型進(jìn)行行為類別建模,最后,結(jié)合SVM分類器實(shí)現(xiàn)對(duì)視頻中人體行為的判定。仿真結(jié)果表明,這些方法在KTH和UCF Sports數(shù)據(jù)庫(kù)上有很好的識(shí)別效果。(2)針對(duì)復(fù)雜背景中會(huì)產(chǎn)生一些無(wú)關(guān)興趣點(diǎn)的問(wèn)題,給出了增加時(shí)空興趣點(diǎn)質(zhì)量的方法。通過(guò)對(duì)人體運(yùn)動(dòng)區(qū)域的提取,限定時(shí)空興趣點(diǎn)的產(chǎn)生范圍,可以抑制復(fù)雜背景帶來(lái)的不利影響,來(lái)增加提取時(shí)空興趣點(diǎn)的質(zhì)量。通過(guò)仿真發(fā)現(xiàn)該方法在去除干擾時(shí)空興趣點(diǎn)的同時(shí),對(duì)于識(shí)別效果的提高也是有效的。(3)從豐富特征描述的信息出發(fā),提出了使用復(fù)合時(shí)空特征和融入時(shí)空興趣點(diǎn)的軌跡特征對(duì)時(shí)空興趣點(diǎn)及鄰域進(jìn)行描述。復(fù)合時(shí)空特征結(jié)構(gòu)中包含了局部的空間結(jié)構(gòu)信息和局部的運(yùn)動(dòng)信息,而進(jìn)一步提出的融入軌跡特征的描述子還具備了局部的相對(duì)運(yùn)動(dòng)信息。從實(shí)驗(yàn)的結(jié)果可以看出,這兩個(gè)種新的描述方法對(duì)于提高行為識(shí)別的效果都有好處,融入時(shí)空興趣點(diǎn)的軌跡特征比復(fù)合時(shí)空特征表現(xiàn)更好。
[Abstract]:Human behavior recognition technology in video has always been a very active research topic in the field of computer vision, and has been widely used in intelligent monitoring, video retrieval, human-computer interaction and other fields. This paper mainly studies the methods of human behavior recognition in video. The main idea is to obtain valuable behavior characteristic information through space-time interest points, to obtain human behavior knowledge dictionary of behavior characteristics through visual word bag model, and to produce human behavior patterns through behavior feature training and learning. In order to improve the accuracy of human behavior recognition in complex scenes, this paper improves the traditional feature extraction and description methods. The main contents are as follows: (1) the key technologies in each stage of human behavior recognition are discussed in depth. The detection method of space-time interest points in 3D Harris,Dollar is studied and analyzed, and the feature description method of space-time interest points, including HOG,HOF,3D HOG descriptors, is discussed. The visual word bag model is used to model the behavior category. Finally, the SVM classifier is combined to determine the human behavior in the video. The simulation results show that these methods have a good recognition effect on KTH and UCF Sports databases. (2) aiming at the problem that some independent interest points will occur in complex background, a method to increase the quality of space-time interest points is given. By extracting the motion region of human body and limiting the generation range of space-time interest points, the adverse effects of complex background can be suppressed, and the quality of space-time interest points can be increased. Through simulation, it is found that this method is also effective for improving the recognition effect while removing the interest points of interference space-time. (3) starting from the rich information of feature description, In this paper, the compound space-time characteristics and the trajectory characteristics of space-time interest points are proposed to describe the space-time interest points and neighborhoods. The compound space-time feature structure contains the local spatial structure information and the local motion information, and the further description which integrates the trajectory feature also has the local relative motion information. From the experimental results, it can be seen that these two new description methods are beneficial to improve the effect of behavior recognition, and the trajectory characteristics of integrating space-time interest points are better than those of compound space-time features.
【學(xué)位授予單位】:南京郵電大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動(dòng)特征的行為識(shí)別[J];北京交通大學(xué)學(xué)報(bào);2009年02期

2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測(cè)模型的多人行為識(shí)別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期

3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識(shí)別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期

4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識(shí)別算法[J];光電子.激光;2013年08期

5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J];中國(guó)圖象圖形學(xué)報(bào);2014年02期

6 曾青松;余明輝;賀衛(wèi)國(guó);李玲;;一種行為識(shí)別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期

7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識(shí)別[J];自動(dòng)化學(xué)報(bào);2010年01期

8 李英杰;尹怡欣;鄧飛;;一種有效的行為識(shí)別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期

9 王新旭;;基于視覺(jué)的人體行為識(shí)別研究[J];中國(guó)新通信;2012年21期

10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期

相關(guān)會(huì)議論文 前7條

1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺(jué)察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識(shí)別[A];2007中國(guó)控制與決策學(xué)術(shù)年會(huì)論文集[C];2007年

4 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡(jiǎn)單人物行為識(shí)別研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

5 安國(guó)成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國(guó)智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年

6 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用研究[A];2013年全國(guó)通信軟件學(xué)術(shù)會(huì)議論文集[C];2013年

7 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

相關(guān)重要報(bào)紙文章 前4條

1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日?qǐng)?bào);2001年

2 農(nóng)發(fā)行鹿邑支行黨支部書(shū)記 行長(zhǎng) 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日?qǐng)?bào);2007年

3 東林;行為識(shí)別新技術(shù)讓監(jiān)控沒(méi)有“死角”[N];人民公安報(bào);2007年

4 田凱 徐蕊 李政育 信木祥;博物館安全的國(guó)際經(jīng)驗(yàn)[N];中國(guó)文物報(bào);2014年

相關(guān)博士學(xué)位論文 前10條

1 邵延華;基于計(jì)算機(jī)視覺(jué)的人體行為識(shí)別研究[D];重慶大學(xué);2015年

2 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年

3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年

4 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年

5 韓姍姍;基于視覺(jué)的運(yùn)動(dòng)人體特征描述與行為識(shí)別研究[D];浙江工業(yè)大學(xué);2015年

6 裴利沈;視頻中人體行為識(shí)別若干問(wèn)題研究[D];電子科技大學(xué);2016年

7 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年

8 吳秋霞;復(fù)雜場(chǎng)景下的人體行為識(shí)別[D];華南理工大學(xué);2012年

9 于成龍;基于視頻的人體行為識(shí)別關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2014年

10 王亮;基于判別模式學(xué)習(xí)的人體行為識(shí)別方法研究[D];哈爾濱工業(yè)大學(xué);2011年

相關(guān)碩士學(xué)位論文 前10條

1 唐小琴;基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究[D];西南大學(xué);2015年

2 胡秋揚(yáng);可穿戴式個(gè)人室內(nèi)位置和行為監(jiān)測(cè)系統(tǒng)[D];浙江大學(xué);2015年

3 陳鈺昕;基于時(shí)空特性的人體行為識(shí)別研究[D];燕山大學(xué);2015年

4 任亮;智能車環(huán)境下車輛典型行為識(shí)別方法研究[D];長(zhǎng)安大學(xué);2015年

5 金澤豪;并行化的人體行為識(shí)別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年

6 王呈;穿戴式多傳感器人體日;顒(dòng)監(jiān)測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年

7 王露;基于稀疏時(shí)空特征的人體行為識(shí)別研究[D];蘇州大學(xué);2015年

8 于靜;基于物品信息和人體深度信息的行為識(shí)別研究[D];山東大學(xué);2015年

9 章瑜;人體運(yùn)動(dòng)行為識(shí)別相關(guān)方法研究[D];南京師范大學(xué);2015年

10 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年

,

本文編號(hào):2489802

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2489802.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶cc1b5***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com