天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

基于改進(jìn)HOG的視頻中運(yùn)動(dòng)人體特征檢測(cè)與行為識(shí)別

發(fā)布時(shí)間:2018-12-16 20:14
【摘要】:在當(dāng)今的計(jì)算機(jī)視覺(jué)領(lǐng)域,動(dòng)態(tài)視頻中人體目標(biāo)的檢測(cè)與人體正在進(jìn)行的行為的識(shí)別已經(jīng)成為了一個(gè)重要的研究方向。其在智能監(jiān)控、視頻檢索、人體運(yùn)動(dòng)分析方面有著重要的應(yīng)用。但是,由于人體的非剛性以及視頻背景的復(fù)雜性,該方向仍然是一個(gè)具有挑戰(zhàn)的研究方向。視頻中運(yùn)動(dòng)人體行為識(shí)別過(guò)程分為三個(gè)過(guò)程,即人體目標(biāo)檢測(cè)、人體目標(biāo)特征提取、人體行為識(shí)別。梯度方向直方圖(HOG)算法誕生之初是用于人體目標(biāo)檢測(cè),并非用于人體行為識(shí)別之中,本文將HOG算法與其他算法結(jié)合應(yīng)用于人體行為識(shí)別當(dāng)中。本文通過(guò)提出改進(jìn)的混合高斯背景模型與改進(jìn)的HOG算法來(lái)對(duì)人體行為進(jìn)行識(shí)別,主要對(duì)跑、走、彎腰、上跳、單手揮動(dòng)、雙手揮動(dòng)、雙腳跳七個(gè)人體行為的基本動(dòng)作進(jìn)行識(shí)別,并在識(shí)別上取得了較好的識(shí)別效果。本文所做的主要工作如下:在人體目標(biāo)檢測(cè)中,首先闡述了幾種基本的圖像預(yù)處理方法,只有將輸入的圖像進(jìn)行預(yù)處理后才能得到更好的輸入圖像。因此在此方面介紹了圖像增強(qiáng)、圖像去噪、數(shù)學(xué)形態(tài)學(xué)在圖像中的應(yīng)用。通過(guò)圖像去噪可以去除圖像中影響結(jié)果的噪聲,通過(guò)數(shù)學(xué)形態(tài)學(xué)處理,消除了圖像中的孤立像素點(diǎn)和人體目標(biāo)的空洞。介紹了幾種常用的背景建模模型、通過(guò)對(duì)比它們的優(yōu)缺點(diǎn),使用了混合高斯模型,但是該模型雖然能夠有效的獲取到視頻中的背景,但是該方法受圖像中的陰影影響較大,因此本文提出了一種改進(jìn)的混合高斯模型即基于HSV空間與陰影抑制方法的混合高斯背景模型,通過(guò)將原圖像轉(zhuǎn)換為HSV空間中的圖像,并通過(guò)V向量上的值來(lái)有效的抑制陰影。在人體特征提取方面,首先提出了重心特征,通過(guò)對(duì)人體輪廓的提取,并對(duì)人體輪廓的重心計(jì)算,得到了重心特征向量。通過(guò)對(duì)兩種直方圖的學(xué)習(xí),包括梯度方向直方圖(HOG)與光流場(chǎng)直方圖(HOF),得出單一的某個(gè)直方圖并不能更好的表現(xiàn)出圖像人體的運(yùn)動(dòng)特征,因此本文提出了一種改進(jìn)的HOG算法,即基于HOG、HOF、重心特征的人體特征提取方法。在人體行為識(shí)別方面,本文介紹了幾種常用的人體行為分類方法,即模版匹配法、直接分類法和狀態(tài)空間法,通過(guò)對(duì)幾種算法的學(xué)習(xí),本文最終選用直接分類法中的KNN算法,并實(shí)現(xiàn)了基于HOG、HOF、重心特征的人體特征提取方法的人體行為識(shí)別,通過(guò)三種特征不同的組合,對(duì)Weizmann數(shù)據(jù)庫(kù)中7種不同的人體行為動(dòng)作分別進(jìn)行了6組不同的實(shí)驗(yàn),證明了本文提出的改進(jìn)的HOG算法的正確性,識(shí)別率達(dá)到95.42%。
[Abstract]:In the field of computer vision, the detection of human body and the recognition of human behavior in dynamic video have become an important research direction. It has important applications in intelligent surveillance, video retrieval and human motion analysis. However, due to the nonrigid human body and the complexity of video background, this direction is still a challenging research direction. The recognition process of moving human behavior in video is divided into three processes: human target detection, human target feature extraction, and human behavior recognition. The gradient direction histogram (HOG) algorithm was first used for human object detection, not for human behavior recognition. In this paper, the HOG algorithm is combined with other algorithms in human behavior recognition. In this paper, we propose an improved mixed Gao Si background model and an improved HOG algorithm to identify human behavior, which mainly recognizes the basic actions of running, walking, bending, jumping, waving with one hand and jumping with both feet. Good recognition effect has been achieved in recognition. The main work of this paper is as follows: in human object detection, several basic image preprocessing methods are introduced, only after the input image is preprocessed can the better input image be obtained. Therefore, the application of image enhancement, image denoising and mathematical morphology in image is introduced. Image denoising can remove the noise that affects the result of the image and eliminate the voids of isolated pixels and human body targets by mathematical morphology processing. This paper introduces several common background modeling models. By comparing their advantages and disadvantages, the mixed Gao Si model is used. Although the model can get the background of the video effectively, the method is greatly affected by the shadow in the image. In this paper, an improved mixed Gao Si model is proposed, which is based on HSV space and shadow suppression method. The original image is converted into the image in HSV space, and the shadow is effectively suppressed by the value of V vector. In the aspect of human body feature extraction, the barycenter feature is first put forward, and the barycenter feature vector is obtained by extracting the human body contour and calculating the center of gravity of the human body contour. By studying two histograms, including gradient histogram (HOG) and optical flow field histogram (HOF), it is concluded that a single histogram can not better show the motion characteristics of the image body. Therefore, an improved HOG algorithm based on HOG,HOF, barycenter feature is proposed in this paper. In the aspect of human behavior recognition, this paper introduces several common classification methods of human behavior, that is, template matching, direct classification and state space. Through the learning of several algorithms, the KNN algorithm of direct classification is selected in this paper. The human behavior recognition based on HOG,HOF, barycenter feature extraction method is realized. Through the combination of three different features, six different experiments are carried out on seven different human behavior actions in Weizmann database. It is proved that the improved HOG algorithm is correct and the recognition rate is 95.42.
【學(xué)位授予單位】:吉林大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動(dòng)特征的行為識(shí)別[J];北京交通大學(xué)學(xué)報(bào);2009年02期

2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測(cè)模型的多人行為識(shí)別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期

3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識(shí)別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期

4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識(shí)別算法[J];光電子.激光;2013年08期

5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J];中國(guó)圖象圖形學(xué)報(bào);2014年02期

6 曾青松;余明輝;賀衛(wèi)國(guó);李玲;;一種行為識(shí)別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期

7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識(shí)別[J];自動(dòng)化學(xué)報(bào);2010年01期

8 李英杰;尹怡欣;鄧飛;;一種有效的行為識(shí)別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期

9 王新旭;;基于視覺(jué)的人體行為識(shí)別研究[J];中國(guó)新通信;2012年21期

10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期

相關(guān)會(huì)議論文 前7條

1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺(jué)察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識(shí)別[A];2007中國(guó)控制與決策學(xué)術(shù)年會(huì)論文集[C];2007年

4 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡(jiǎn)單人物行為識(shí)別研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

5 安國(guó)成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國(guó)智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年

6 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用研究[A];2013年全國(guó)通信軟件學(xué)術(shù)會(huì)議論文集[C];2013年

7 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

相關(guān)重要報(bào)紙文章 前4條

1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日?qǐng)?bào);2001年

2 農(nóng)發(fā)行鹿邑支行黨支部書記 行長(zhǎng) 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日?qǐng)?bào);2007年

3 東林;行為識(shí)別新技術(shù)讓監(jiān)控沒(méi)有“死角”[N];人民公安報(bào);2007年

4 田凱 徐蕊 李政育 信木祥;博物館安全的國(guó)際經(jīng)驗(yàn)[N];中國(guó)文物報(bào);2014年

相關(guān)博士學(xué)位論文 前10條

1 邵延華;基于計(jì)算機(jī)視覺(jué)的人體行為識(shí)別研究[D];重慶大學(xué);2015年

2 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年

3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年

4 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年

5 裴利沈;視頻中人體行為識(shí)別若干問(wèn)題研究[D];電子科技大學(xué);2016年

6 周同馳;行為識(shí)別中基于局部時(shí)空關(guān)系的特征模型研究[D];東南大學(xué);2016年

7 徐海燕;復(fù)雜環(huán)境下行為識(shí)別特征提取方法研究[D];東南大學(xué);2016年

8 吳云鵬;集體行為的識(shí)別與仿真研究[D];鄭州大學(xué);2017年

9 劉艷秋;舍飼環(huán)境下母羊產(chǎn)前典型行為識(shí)別方法研究[D];內(nèi)蒙古農(nóng)業(yè)大學(xué);2017年

10 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年

相關(guān)碩士學(xué)位論文 前10條

1 唐小琴;基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究[D];西南大學(xué);2015年

2 胡秋揚(yáng);可穿戴式個(gè)人室內(nèi)位置和行為監(jiān)測(cè)系統(tǒng)[D];浙江大學(xué);2015年

3 陳鈺昕;基于時(shí)空特性的人體行為識(shí)別研究[D];燕山大學(xué);2015年

4 任亮;智能車環(huán)境下車輛典型行為識(shí)別方法研究[D];長(zhǎng)安大學(xué);2015年

5 金澤豪;并行化的人體行為識(shí)別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年

6 王呈;穿戴式多傳感器人體日;顒(dòng)監(jiān)測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年

7 王露;基于稀疏時(shí)空特征的人體行為識(shí)別研究[D];蘇州大學(xué);2015年

8 于靜;基于物品信息和人體深度信息的行為識(shí)別研究[D];山東大學(xué);2015年

9 章瑜;人體運(yùn)動(dòng)行為識(shí)別相關(guān)方法研究[D];南京師范大學(xué);2015年

10 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年

,

本文編號(hào):2382991

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2382991.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶7b435***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com