基于骨骼信息的暴力行為智能監(jiān)控技術(shù)研究
發(fā)布時間:2021-10-29 05:00
近年來,國際社會的安全形勢日益嚴峻,恐怖襲擊和暴力沖突事件持高發(fā)態(tài)勢。視頻監(jiān)控技術(shù)廣泛應(yīng)用在學校、醫(yī)院、商場和街道等公共場所,是我國保障社會安全穩(wěn)定的主要安防監(jiān)控方式。此外,隨著互聯(lián)網(wǎng)技術(shù)的迅速發(fā)展,網(wǎng)絡(luò)視頻成為傳遞信息的重要載體,而其中充斥的暴力、色情等不良信息,對用戶特別是青少年造成了不良的影響。伴隨監(jiān)控終端的廣泛部署和網(wǎng)絡(luò)視頻量的爆炸式增長,視頻監(jiān)控技術(shù)需更加智能化。傳統(tǒng)的監(jiān)控系統(tǒng)僅實現(xiàn)現(xiàn)場視頻的采集和儲存功能,而對數(shù)據(jù)的審查多數(shù)依靠人力完成,這種方式不僅費時費力,且易出現(xiàn)漏檢和誤檢。因此,針對公共場所和網(wǎng)絡(luò)視頻的暴力行為智能監(jiān)控技術(shù)已成為滿足人民切實需要的一項研究內(nèi)容。在眾多監(jiān)控方法中,按數(shù)據(jù)類型的不同可分為三類:彩色信息、深度信息和骨骼信息;诓噬畔⒑蜕疃刃畔⒌闹悄鼙O(jiān)控技術(shù)易受遮擋、背景和光照等干擾因素的影響,且從大尺寸或低分辨率的圖像中提取特征比較困難。本文結(jié)合實際問題,針對基于骨骼信息的暴力行為智能監(jiān)控技術(shù)展開研究,主要工作如下:(1)針對Kinect提取的骨骼信息受采集距離限制的問題,本文以大變焦網(wǎng)絡(luò)攝像頭作為監(jiān)控設(shè)備,使用卡內(nèi)基梅隆大學的tf-pose深度網(wǎng)絡(luò)從采...
【文章來源】:吉林大學吉林省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:94 頁
【學位級別】:碩士
【部分圖文】:
NTURGB+D數(shù)據(jù)集在不同分割方法下的骨骼向量標準差
第6章暴力行為智能監(jiān)控實驗及分析55類器為f*,則樣本x的行為安全性按如下公式判定:*1,0,mymmfxmymm·······································(6.2)其中,m是正例樣本數(shù),m是反例樣本數(shù),設(shè)危險動作為正例,安全動作為反例,則輸出“1”代表樣本x是暴力行為,輸出“0”代表樣本x是安全行為。行為數(shù)據(jù)是由多幀骨骼信息構(gòu)成的序列,為了提高暴力行為的定位精度,本文將NTURGB+D數(shù)據(jù)集中的行為序列按幀分解為多個樣本,輸入到BP神經(jīng)網(wǎng)絡(luò)中,其訓練流程如圖6.2所示。圖6.2BP神經(jīng)網(wǎng)絡(luò)訓練流程隨著迭代次數(shù)的增加,訓練集和測試集的準確率曲線如圖6.3所示。由圖可知,網(wǎng)絡(luò)的收斂效果較好,但訓練集和測試集的分類準確率卻未達到很理想的狀態(tài)。這是由于逐幀分類的策略導(dǎo)致安全樣本集與暴力樣本集之間發(fā)生了部分重疊。為解決這一問題,本文將基于先驗知識的定位方法和基于BP神經(jīng)網(wǎng)絡(luò)的定位方法結(jié)合。表6.3列出了不同方法對NTURGB+D數(shù)據(jù)集的定位準確率和定位速度,由表可知,“先驗知識+BP神經(jīng)網(wǎng)絡(luò)”的二階段時序定位法首先通過先驗知識剔除了在行為序列中占絕大部分的安全片段,然后使用BP神經(jīng)網(wǎng)絡(luò)對少數(shù)可疑片段進一步分類。這樣既顯著提高了定位精度,達到98.7%,又保障了定位速度,在tf-pose以20幀/秒的速度提取骨骼信息的前提下,仍能達到18幀/秒的定位速度。
【參考文獻】:
期刊論文
[1]基于雙向長短期記憶模型的起重機智能操控方法[J]. 倪濤,劉海強,王林林,鄒少元,張紅彥,黃玲濤. 吉林大學學報(工學版). 2020(02)
[2]CNNIC發(fā)布第44次《中國互聯(lián)網(wǎng)絡(luò)發(fā)展狀況統(tǒng)計報告》[J]. 于朝暉. 網(wǎng)信軍民融合. 2019(09)
[3]利用生成噪聲提高語音增強方法的泛化能力[J]. 袁文浩,婁迎曦,梁春燕,夏斌. 電子學報. 2019(04)
[4]吊裝機器人肢體動作指令識別技術(shù)研究[J]. 倪濤,鄒少元,劉海強,黃玲濤,陳寧,張紅彥. 農(nóng)業(yè)機械學報. 2019(06)
[5]基于分塊雙向二維主成分分析的人臉目標識別[J]. 樂新宇,肖小霞. 計算機技術(shù)與發(fā)展. 2019(01)
[6]基于矩與支持向量機的艦船目標識別方法[J]. 徐芳,韓樹奎. 傳感器與微系統(tǒng). 2018(08)
[7]基于LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的故障時間序列預(yù)測[J]. 王鑫,吳際,劉超,楊海燕,杜艷麗,牛文生. 北京航空航天大學學報. 2018(04)
[8]基于多級圖像序列和卷積神經(jīng)網(wǎng)絡(luò)的人體行為識別[J]. 馬淼,李貽斌. 吉林大學學報(工學版). 2017(04)
[9]一種基于關(guān)節(jié)點信息的人體行為識別新方法[J]. 田國會,尹建芹,韓旭,于靜. 機器人. 2014(03)
[10]BP神經(jīng)網(wǎng)絡(luò)訓練中的實際問題研究[J]. 宋振宇,王秋彥,丁小峰. 海軍航空工程學院學報. 2009(06)
博士論文
[1]基于深度學習的暴力檢測及人臉識別方法研究[D]. 丁春輝.中國科學技術(shù)大學 2017
[2]神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)理論與技術(shù)的研究及其在過程模擬與過程控制中的應(yīng)用[D]. 朱群雄.北京化工大學 1996
碩士論文
[1]基于相關(guān)濾波的目標穩(wěn)定跟蹤技術(shù)研究[D]. 吳昭童.中國科學院大學(中國科學院光電技術(shù)研究所) 2019
[2]基于三維重構(gòu)與透視變換的汽車A柱盲區(qū)可視化方法研究[D]. 許彥平.吉林大學 2019
[3]基于肢體動作識別的吊運機器人智能交互技術(shù)研究[D]. 鄒少元.吉林大學 2019
[4]基于音視頻特征融合的暴力鏡頭識別方法研究[D]. 邵晨智.哈爾濱工業(yè)大學 2019
[5]基于人體關(guān)鍵點的人體行為識別[D]. 賀家靈.哈爾濱工業(yè)大學 2019
[6]基于改進BP神經(jīng)網(wǎng)絡(luò)的市際客運班線客流預(yù)測研究[D]. 黃小龍.哈爾濱工業(yè)大學 2019
[7]基于深度學習的人體行為識別研究[D]. 汪先遠.北京交通大學 2019
[8]二軸云臺的目標跟蹤技術(shù)研究[D]. 趙恒逸.南京航空航天大學 2019
[9]基于BP神經(jīng)網(wǎng)絡(luò)核事故源項反演模型的優(yōu)化研究[D]. 柴超君.南京航空航天大學 2019
[10]基于深度學習的人體行為識別算法研究[D]. 劉雪君.東北電力大學 2018
本文編號:3464013
【文章來源】:吉林大學吉林省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:94 頁
【學位級別】:碩士
【部分圖文】:
NTURGB+D數(shù)據(jù)集在不同分割方法下的骨骼向量標準差
第6章暴力行為智能監(jiān)控實驗及分析55類器為f*,則樣本x的行為安全性按如下公式判定:*1,0,mymmfxmymm·······································(6.2)其中,m是正例樣本數(shù),m是反例樣本數(shù),設(shè)危險動作為正例,安全動作為反例,則輸出“1”代表樣本x是暴力行為,輸出“0”代表樣本x是安全行為。行為數(shù)據(jù)是由多幀骨骼信息構(gòu)成的序列,為了提高暴力行為的定位精度,本文將NTURGB+D數(shù)據(jù)集中的行為序列按幀分解為多個樣本,輸入到BP神經(jīng)網(wǎng)絡(luò)中,其訓練流程如圖6.2所示。圖6.2BP神經(jīng)網(wǎng)絡(luò)訓練流程隨著迭代次數(shù)的增加,訓練集和測試集的準確率曲線如圖6.3所示。由圖可知,網(wǎng)絡(luò)的收斂效果較好,但訓練集和測試集的分類準確率卻未達到很理想的狀態(tài)。這是由于逐幀分類的策略導(dǎo)致安全樣本集與暴力樣本集之間發(fā)生了部分重疊。為解決這一問題,本文將基于先驗知識的定位方法和基于BP神經(jīng)網(wǎng)絡(luò)的定位方法結(jié)合。表6.3列出了不同方法對NTURGB+D數(shù)據(jù)集的定位準確率和定位速度,由表可知,“先驗知識+BP神經(jīng)網(wǎng)絡(luò)”的二階段時序定位法首先通過先驗知識剔除了在行為序列中占絕大部分的安全片段,然后使用BP神經(jīng)網(wǎng)絡(luò)對少數(shù)可疑片段進一步分類。這樣既顯著提高了定位精度,達到98.7%,又保障了定位速度,在tf-pose以20幀/秒的速度提取骨骼信息的前提下,仍能達到18幀/秒的定位速度。
【參考文獻】:
期刊論文
[1]基于雙向長短期記憶模型的起重機智能操控方法[J]. 倪濤,劉海強,王林林,鄒少元,張紅彥,黃玲濤. 吉林大學學報(工學版). 2020(02)
[2]CNNIC發(fā)布第44次《中國互聯(lián)網(wǎng)絡(luò)發(fā)展狀況統(tǒng)計報告》[J]. 于朝暉. 網(wǎng)信軍民融合. 2019(09)
[3]利用生成噪聲提高語音增強方法的泛化能力[J]. 袁文浩,婁迎曦,梁春燕,夏斌. 電子學報. 2019(04)
[4]吊裝機器人肢體動作指令識別技術(shù)研究[J]. 倪濤,鄒少元,劉海強,黃玲濤,陳寧,張紅彥. 農(nóng)業(yè)機械學報. 2019(06)
[5]基于分塊雙向二維主成分分析的人臉目標識別[J]. 樂新宇,肖小霞. 計算機技術(shù)與發(fā)展. 2019(01)
[6]基于矩與支持向量機的艦船目標識別方法[J]. 徐芳,韓樹奎. 傳感器與微系統(tǒng). 2018(08)
[7]基于LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的故障時間序列預(yù)測[J]. 王鑫,吳際,劉超,楊海燕,杜艷麗,牛文生. 北京航空航天大學學報. 2018(04)
[8]基于多級圖像序列和卷積神經(jīng)網(wǎng)絡(luò)的人體行為識別[J]. 馬淼,李貽斌. 吉林大學學報(工學版). 2017(04)
[9]一種基于關(guān)節(jié)點信息的人體行為識別新方法[J]. 田國會,尹建芹,韓旭,于靜. 機器人. 2014(03)
[10]BP神經(jīng)網(wǎng)絡(luò)訓練中的實際問題研究[J]. 宋振宇,王秋彥,丁小峰. 海軍航空工程學院學報. 2009(06)
博士論文
[1]基于深度學習的暴力檢測及人臉識別方法研究[D]. 丁春輝.中國科學技術(shù)大學 2017
[2]神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)理論與技術(shù)的研究及其在過程模擬與過程控制中的應(yīng)用[D]. 朱群雄.北京化工大學 1996
碩士論文
[1]基于相關(guān)濾波的目標穩(wěn)定跟蹤技術(shù)研究[D]. 吳昭童.中國科學院大學(中國科學院光電技術(shù)研究所) 2019
[2]基于三維重構(gòu)與透視變換的汽車A柱盲區(qū)可視化方法研究[D]. 許彥平.吉林大學 2019
[3]基于肢體動作識別的吊運機器人智能交互技術(shù)研究[D]. 鄒少元.吉林大學 2019
[4]基于音視頻特征融合的暴力鏡頭識別方法研究[D]. 邵晨智.哈爾濱工業(yè)大學 2019
[5]基于人體關(guān)鍵點的人體行為識別[D]. 賀家靈.哈爾濱工業(yè)大學 2019
[6]基于改進BP神經(jīng)網(wǎng)絡(luò)的市際客運班線客流預(yù)測研究[D]. 黃小龍.哈爾濱工業(yè)大學 2019
[7]基于深度學習的人體行為識別研究[D]. 汪先遠.北京交通大學 2019
[8]二軸云臺的目標跟蹤技術(shù)研究[D]. 趙恒逸.南京航空航天大學 2019
[9]基于BP神經(jīng)網(wǎng)絡(luò)核事故源項反演模型的優(yōu)化研究[D]. 柴超君.南京航空航天大學 2019
[10]基于深度學習的人體行為識別算法研究[D]. 劉雪君.東北電力大學 2018
本文編號:3464013
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3464013.html
最近更新
教材專著