天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于深度學(xué)習(xí)的人體異常行為識別研究

發(fā)布時間:2020-06-27 13:59
【摘要】:隨著人們安全意識的逐步提高,基于視頻監(jiān)控的運(yùn)動人體異常行為識別技術(shù)得到了全社會的廣泛關(guān)注。然而,已有的人體異常行為識別方法計算復(fù)雜度高、模型泛化性差,且很難對其進(jìn)行準(zhǔn)確識別。所以,對視頻中的人體異常行為識別方法的研究具有重要意義。為了充分利用視頻中的有效信息,提高復(fù)雜場景下的人體異常行為識別率,通過研究常用的目標(biāo)檢測算法,基于混合高斯模型,提出一種改進(jìn)的目標(biāo)檢測方法,采用中值法初始化背景模型,建立新的權(quán)值更新規(guī)則,并結(jié)合幀間差分法,檢測出清晰的前景運(yùn)動目標(biāo)輪廓,并進(jìn)一步提取出人體運(yùn)動關(guān)鍵區(qū)域;采用Farneback稠密光流算法計算關(guān)鍵區(qū)域的光流值,獲取時空信息。通過分析基于深度學(xué)習(xí)的行為分類模型,結(jié)合卷積神經(jīng)網(wǎng)絡(luò)(CNN)和長短時記憶網(wǎng)絡(luò)(LSTM),建立一種基于Dropout機(jī)制的CNN-LSTM混合雙流網(wǎng)絡(luò)模型。輸入視頻序列運(yùn)動關(guān)鍵區(qū)域的原始圖像和疊加的光流圖像,對時空信息中的動、靜態(tài)特征和時序信息進(jìn)行學(xué)習(xí)。采用加權(quán)融合的方式對兩路網(wǎng)絡(luò)的Softmax輸出進(jìn)行加權(quán)計算,得到最終的分類結(jié)果。在行為分類的基礎(chǔ)上實現(xiàn)對視頻中人體異常行為的識別,并利用測試樣本對改進(jìn)的雙流模型進(jìn)行測試分析。測試結(jié)果表明,運(yùn)用改進(jìn)的雙流網(wǎng)絡(luò)模型對測試集上的行為分類準(zhǔn)確率達(dá)到了91.2%,其中異常行為的識別率為92%,相較于文中對比的三種模型,分別提高了 6%、8.3%、3.4%,說明了本文改進(jìn)的模型具有較好的識別效果,為人體異常行為識別研究提供了一定的理論參考。
【學(xué)位授予單位】:西安科技大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:TP391.41;TP18
【圖文】:

效果圖,目標(biāo)檢測,仿真結(jié)果


(g)幀差法 (h)改進(jìn)算法圖 3.1 目標(biāo)檢測仿真結(jié)果圖目標(biāo)檢測仿真仿真中所用測試視頻是在強(qiáng)光照環(huán)境下拍攝,視頻共 795 幀,隨機(jī)截取了第 90 和第 191 兩幀圖像的效果圖。由仿真結(jié)果圖 3.1 中的(b)和(f)可以看出,GMM算法在進(jìn)行前景目標(biāo)檢測時,得到的運(yùn)動目標(biāo)輪廓相較于幀差法來說較為完整,基本能夠?qū)⒈尘昂湍繕?biāo)區(qū)分開來。但是當(dāng)視頻場景中的運(yùn)動目標(biāo)在短暫停留或運(yùn)動緩慢的時候易被當(dāng)作背景處理,如(b)圖中路燈后停下交流的行人、(f)圖中停下回頭觀望的行人等,從而會對視頻中的運(yùn)動物體造成誤檢,并且由于 GMM 算法是對像素進(jìn)行操作的,從圖中可以看出檢測結(jié)果中會存在大量的噪聲干擾。由圖(c)和(g)可以看出,雖然幀間差分法能夠快速定位運(yùn)動物體,但是幀差法只能提取出部分的運(yùn)動目標(biāo),輪廓缺失嚴(yán)重,并且所提取運(yùn)動目標(biāo)的像素點不集中,內(nèi)部會存在“空洞”現(xiàn)象。通過本文改進(jìn)的算法,即將改進(jìn)后的混合高斯模型背景建模與幀間差分法相結(jié)合,利用各自的優(yōu)勢,能夠?qū)Ρ尘斑M(jìn)行快速建模,把背景像素和運(yùn)動目標(biāo)很好的區(qū)分開來,以提取出較為完整的目標(biāo)輪廓,較好的解決了誤檢問題,且能較好的抑制噪聲干擾,為接下來準(zhǔn)確提取運(yùn)動關(guān)鍵區(qū)域及其光流信息提供了有利條件。

關(guān)鍵區(qū)域,人體運(yùn)動,尺寸大小,幀圖像


(c)提取關(guān)鍵區(qū)域圖 3.2 人體運(yùn)動關(guān)鍵區(qū)域提取圖3.2(a)中原始幀圖像尺寸為879 600,(c)中所提取的運(yùn)動關(guān)鍵區(qū)域尺寸大小為 400400,輸入卷積神經(jīng)網(wǎng)絡(luò)時,再將其歸一化至 224 224 大小?梢钥闯,所提取的人體運(yùn)動關(guān)鍵區(qū)域保留了完整的運(yùn)動信息,去除了多余的場景信息,不僅能夠降低模型的計算復(fù)雜度,也能在一定程度上減小光流的計算量。3.2 光流特征提取通常意義上,光流被認(rèn)為表征著視頻的運(yùn)動或時序信息。在行為識別的數(shù)據(jù)集中,

【參考文獻(xiàn)】

相關(guān)碩士學(xué)位論文 前6條

1 劉雪君;基于深度學(xué)習(xí)的人體行為識別算法研究[D];東北電力大學(xué);2018年

2 余興;基于深度學(xué)習(xí)的視頻行為識別技術(shù)研究[D];電子科技大學(xué);2018年

3 周道洋;基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為檢測研究[D];中國科學(xué)技術(shù)大學(xué);2018年

4 湯華東;基于LSTM融合多CNN的事件圖像分類研究[D];北京交通大學(xué);2018年

5 李冠迪;基于圖像序列的運(yùn)動目標(biāo)檢測算法研究[D];重慶理工大學(xué);2017年

6 王昕培;基于雙流CNN的異常行為分類算法研究[D];哈爾濱工業(yè)大學(xué);2017年



本文編號:2731905

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2731905.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶5df49***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com