公共場(chǎng)合打架和搶劫行為識(shí)別技術(shù)研究
[Abstract]:At present, in the mass surveillance video, the bad behaviors such as fights and robberies, can not be observed continuously for a long time with artificial eyes. How to detect and identify abnormal behavior in surveillance video in real time is a research topic in the field of intelligent security. This paper mainly studies the recognition of abnormal behavior of moving human body in complex background environment and multi-human flow environment. The research content is divided into two aspects: effective tracking of target and recognition of abnormal behavior. The background differential method of hybrid Gao Si background modeling is used to realize the fast detection of moving human body under video, and the moving track of each target is recorded in real time. When the target is walking normally, the method of empirical distance and block histogram matching is used to track the target. When the target appears occlusion, intersection and loss, the Kalman filter combined with the regional optical flow corner tracking algorithm is used to predict the moving position of the target, and the micro-tracking of the optical flow corner is used to correct the position of the target. Achieve effective tracking of each target. Secondly, by using the area weighted optical flow histogram to determine the possible target of fighting, and then using SVM classifier combined with HOG feature training of the upper body attack behavior classifier to detect whether there is a fight action, Finally, the change rate of histogram is calculated by weighted gradient histogram. The frequency of change is higher than threshold and lasts more than 20 frames, then it is recognized as fighting behavior. Comparing the location information of regional optical flow anomaly, the robbery behavior is identified by Kalman filter algorithm. Finally, it is proved by many experiments that the above method can effectively identify the two abnormal behaviors of fighting and robbery, and the accuracy is high.
【學(xué)位授予單位】:大連海事大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類(lèi)號(hào)】:TP391.41
【參考文獻(xiàn)】
相關(guān)期刊論文 前10條
1 田國(guó)會(huì);尹建芹;閆云章;李國(guó)棟;;基于混合高斯模型和主成分分析的軌跡分析行為識(shí)別方法[J];電子學(xué)報(bào);2016年01期
2 陳健虞;劉闊;湛永松;;基于卡爾曼粒子濾波框架的魯棒多人跟蹤算法[J];計(jì)算機(jī)工程與設(shè)計(jì);2015年10期
3 桑海峰;郭昊;徐超;;基于運(yùn)動(dòng)特征的人體異常行為識(shí)別[J];中國(guó)科技論文;2014年07期
4 張建;;基于行走軌跡的異常行為分析[J];中國(guó)公共安全;2013年20期
5 黃國(guó)范;李亞;;人體動(dòng)作姿態(tài)識(shí)別綜述[J];電腦知識(shí)與技術(shù);2013年01期
6 李劍峰;黃增喜;劉怡光;;基于光流場(chǎng)估計(jì)的自適應(yīng)Mean-Shift目標(biāo)跟蹤算法[J];光電子.激光;2012年10期
7 謝立;胡玲玲;呂一品;熊剛;陳耀武;;面向智能視頻監(jiān)控系統(tǒng)運(yùn)動(dòng)目標(biāo)檢測(cè)的輪廓提取方法[J];東南大學(xué)學(xué)報(bào)(自然科學(xué)版);2012年S1期
8 黃斯茜;李光;;智能視頻監(jiān)控系統(tǒng)運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)研究綜述[J];信息通信;2012年04期
9 李海霞;范紅;;基于背景差法的幾種背景建模方法的研究[J];工業(yè)控制計(jì)算機(jī);2012年07期
10 陳翔;陳鵬;;基于改進(jìn)模板匹配的目標(biāo)跟蹤算法[J];計(jì)算機(jī)應(yīng)用;2011年S2期
相關(guān)博士學(xué)位論文 前6條
1 葉芳芳;監(jiān)控視頻中的異常行為檢測(cè)研究[D];浙江大學(xué);2014年
2 廖彬;單目視頻中的光流場(chǎng)估計(jì)技術(shù)研究[D];華南理工大學(xué);2011年
3 王書(shū)朋;視頻目標(biāo)跟蹤算法研究[D];西安電子科技大學(xué);2009年
4 盧宗慶;運(yùn)動(dòng)圖像分析中的光流計(jì)算方法研究[D];西安電子科技大學(xué);2007年
5 沈志民;搶劫罪研究[D];吉林大學(xué);2004年
6 馬賡宇;基于HMM的時(shí)間序列聚類(lèi)與識(shí)別[D];清華大學(xué);2004年
相關(guān)碩士學(xué)位論文 前7條
1 湯貝;基于模板匹配的目標(biāo)跟蹤算法研究[D];長(zhǎng)沙理工大學(xué);2013年
2 劉朵;基于特征描述子的目標(biāo)跟蹤研究[D];西安電子科技大學(xué);2013年
3 張彥杰;人體異常行為檢測(cè)技術(shù)的研究[D];天津大學(xué);2012年
4 馮柯;交通視頻中視點(diǎn)無(wú)關(guān)目標(biāo)分類(lèi)與檢索方法研究[D];杭州電子科技大學(xué);2009年
5 成偉;均值漂移算法在視頻目標(biāo)跟蹤中的應(yīng)用[D];重慶大學(xué);2009年
6 陳宜穩(wěn);視頻序列中人的異常行為檢測(cè)研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2007年
7 代凱乾;單目圖像序列的目標(biāo)跟蹤算法研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2006年
,本文編號(hào):2131743
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2131743.html