基于深度學(xué)習(xí)的行為識(shí)別及其在基建現(xiàn)場(chǎng)的應(yīng)用
發(fā)布時(shí)間:2021-02-18 02:01
為了進(jìn)一步保障公共場(chǎng)所內(nèi)的安全與穩(wěn)定,基于視頻監(jiān)控的人體行為識(shí)別技術(shù)得到了全社會(huì)的廣泛關(guān)注。已有的基于深度學(xué)習(xí)的人體行為識(shí)別方法計(jì)算復(fù)雜度高、模型泛化性差且很難準(zhǔn)確識(shí)別。本文對(duì)現(xiàn)有模型的優(yōu)缺點(diǎn)進(jìn)行分析,從模型的實(shí)用性和識(shí)別性能角度出發(fā),以原始的雙流卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)并提出了兩種改進(jìn)模型。針對(duì)卷積神經(jīng)網(wǎng)絡(luò)(CNN)只能提取視頻中靜態(tài)特征和局部運(yùn)動(dòng)特征的問(wèn)題,本文提出在空間流網(wǎng)絡(luò)中融入長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM),在時(shí)間流網(wǎng)絡(luò)中用三維卷積(C3D)網(wǎng)絡(luò)代替原二維卷積網(wǎng)絡(luò),形成改進(jìn)的雙流CNN-LSTM和C3D的網(wǎng)絡(luò)結(jié)構(gòu),進(jìn)一步加強(qiáng)視頻中時(shí)序信息的學(xué)習(xí),再使用加權(quán)融合的方式對(duì)兩路網(wǎng)絡(luò)Softmax層輸出的決策分?jǐn)?shù)進(jìn)行加權(quán)運(yùn)算,獲得行為分類結(jié)果,但準(zhǔn)確率還不夠高。針對(duì)雙流網(wǎng)絡(luò)模型僅僅在決策分?jǐn)?shù)階段進(jìn)行融合導(dǎo)致行為識(shí)別準(zhǔn)確率較低的問(wèn)題,本文提出在特征層面對(duì)空間流網(wǎng)絡(luò)和時(shí)間流網(wǎng)絡(luò)進(jìn)行融合,此融合方式必須保證兩路網(wǎng)絡(luò)結(jié)構(gòu)相同,鑒于三維卷積的優(yōu)越性,在上述改進(jìn)的基礎(chǔ)上繼續(xù)將空間流網(wǎng)絡(luò)替換為C3D網(wǎng)絡(luò),形成改進(jìn)的雙流C3D網(wǎng)絡(luò)結(jié)構(gòu),融合方式包括Conv5b融合、Fc7融合和hybrid融合。該網(wǎng)絡(luò)在行為識(shí)...
【文章來(lái)源】:西安科技大學(xué)陜西省
【文章頁(yè)數(shù)】:78 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
1 緒論
1.1 研究背景
1.2 研究目的及意義
1.3 國(guó)內(nèi)外研究現(xiàn)狀
1.3.1 國(guó)外研究現(xiàn)狀
1.3.2 國(guó)內(nèi)研究現(xiàn)狀
1.4 本文組織和架構(gòu)
2 人體行為識(shí)別相關(guān)理論基礎(chǔ)
2.1 人體行為識(shí)別的基本流程
2.1.1 傳統(tǒng)行為識(shí)別方法
2.1.2 深度學(xué)習(xí)行為識(shí)別方法
2.2 深度學(xué)習(xí)理論基礎(chǔ)
2.2.1 神經(jīng)元
2.2.2 卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)架構(gòu)
2.2.3 卷積神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu)
2.3 本章小結(jié)
3 人體行為識(shí)別中的運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)
3.1 幀間差分法
3.2 混合高斯背景建模法及改進(jìn)
3.3 光流法
3.3.1 稠密光流估計(jì)算法
3.3.2 光流堆
3.3.3 光流法實(shí)驗(yàn)結(jié)果及分析
3.4 本章小結(jié)
4 基于改進(jìn)的雙流CNN-LSTM和C3D網(wǎng)絡(luò)的人體行為識(shí)別
4.1 原雙流卷積神經(jīng)網(wǎng)絡(luò)
4.1.1 原雙流網(wǎng)絡(luò)架構(gòu)
4.1.2 原雙流網(wǎng)絡(luò)架構(gòu)存在的問(wèn)題
4.2 雙流CNN-LSTM和C3D的網(wǎng)絡(luò)結(jié)構(gòu)
4.2.1 網(wǎng)絡(luò)模型的建立
4.2.2 CNN-LSTM空間流卷積神經(jīng)網(wǎng)絡(luò)
4.2.3 C3D時(shí)間流卷積神經(jīng)網(wǎng)絡(luò)
4.2.4 基于Dropout方法的網(wǎng)絡(luò)優(yōu)化
4.2.5 行為特征分類
4.2.6 空間流和時(shí)間流網(wǎng)絡(luò)加權(quán)融合
4.3 UCF-101數(shù)據(jù)集的行為識(shí)別結(jié)果及分析
4.3.1 UCF-101行為數(shù)據(jù)集介紹
4.3.2 系統(tǒng)實(shí)驗(yàn)環(huán)境及模型評(píng)價(jià)標(biāo)準(zhǔn)
4.3.3 空間流和時(shí)間流網(wǎng)絡(luò)特征提取實(shí)驗(yàn)
4.3.4 加權(quán)融合結(jié)果對(duì)比分析
4.4 基建現(xiàn)場(chǎng)異常行為檢測(cè)數(shù)據(jù)集的行為識(shí)別結(jié)果及分析
4.4.1 基建現(xiàn)場(chǎng)異常行為檢測(cè)數(shù)據(jù)集介紹
4.4.2 實(shí)驗(yàn)與結(jié)果分析
4.5 本章小結(jié)
5 基于改進(jìn)的雙流C3D網(wǎng)絡(luò)的人體行為識(shí)別
5.1 雙流C3D的網(wǎng)絡(luò)結(jié)構(gòu)
5.1.1 網(wǎng)絡(luò)模型的建立
5.1.2 C3D空間流和時(shí)間流卷積神經(jīng)網(wǎng)絡(luò)
5.1.3 空間流和時(shí)間流網(wǎng)絡(luò)特征融合
5.2 UCF-101數(shù)據(jù)集的行為識(shí)別結(jié)果及分析
5.2.1 空間流和時(shí)間流網(wǎng)絡(luò)特征提取實(shí)驗(yàn)
5.2.2 特征融合結(jié)果對(duì)比分析
5.2.3 識(shí)別效果和結(jié)果分析
5.3 基建現(xiàn)場(chǎng)異常行為檢測(cè)數(shù)據(jù)集的行為識(shí)別結(jié)果及分析
5.4 本章小結(jié)
6 總結(jié)與展望
6.1 總結(jié)
6.2 展望
致謝
參考文獻(xiàn)
附錄
【參考文獻(xiàn)】:
期刊論文
[1]基于區(qū)域特征融合網(wǎng)絡(luò)的群組行為識(shí)別[J]. 楊興明,范樓苗. 模式識(shí)別與人工智能. 2019(12)
[2]基于深度學(xué)習(xí)的視頻中人體動(dòng)作識(shí)別進(jìn)展綜述[J]. 羅會(huì)蘭,童康,孔繁勝. 電子學(xué)報(bào). 2019(05)
[3]建筑施工現(xiàn)場(chǎng)的安全管理研究[J]. 周凱. 工程技術(shù)研究. 2019(09)
[4]基于3D卷積神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別算法[J]. 張瑞,李其申,儲(chǔ)珺. 計(jì)算機(jī)工程. 2019(01)
[5]基于Faster R-CNN的人體行為檢測(cè)研究[J]. 莫宏偉,汪海波. 智能系統(tǒng)學(xué)報(bào). 2018(06)
[6]時(shí)空特征融合深度學(xué)習(xí)網(wǎng)絡(luò)人體行為識(shí)別方法[J]. 裴曉敏,范慧杰,唐延?xùn)|. 紅外與激光工程. 2018(02)
[7]五個(gè)進(jìn)一步 扎實(shí)開(kāi)展基建現(xiàn)場(chǎng)反違章行動(dòng)[J]. 康健民. 華北電業(yè). 2017(06)
[8]構(gòu)建多尺度深度卷積神經(jīng)網(wǎng)絡(luò)行為識(shí)別模型[J]. 劉智,黃江濤,馮欣. 光學(xué)精密工程. 2017(03)
[9]遷移學(xué)習(xí)研究進(jìn)展[J]. 莊福振,羅平,何清,史忠植. 軟件學(xué)報(bào). 2015(01)
[10]基于傅里葉-隱馬爾科夫模型的人體行為識(shí)別[J]. 黃靜,孔令富,李海濤. 計(jì)算機(jī)仿真. 2011(07)
碩士論文
[1]基于深度學(xué)習(xí)的視頻行為識(shí)別技術(shù)研究[D]. 余興.電子科技大學(xué) 2018
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為檢測(cè)研究[D]. 周道洋.中國(guó)科學(xué)技術(shù)大學(xué) 2018
本文編號(hào):3038871
【文章來(lái)源】:西安科技大學(xué)陜西省
【文章頁(yè)數(shù)】:78 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
1 緒論
1.1 研究背景
1.2 研究目的及意義
1.3 國(guó)內(nèi)外研究現(xiàn)狀
1.3.1 國(guó)外研究現(xiàn)狀
1.3.2 國(guó)內(nèi)研究現(xiàn)狀
1.4 本文組織和架構(gòu)
2 人體行為識(shí)別相關(guān)理論基礎(chǔ)
2.1 人體行為識(shí)別的基本流程
2.1.1 傳統(tǒng)行為識(shí)別方法
2.1.2 深度學(xué)習(xí)行為識(shí)別方法
2.2 深度學(xué)習(xí)理論基礎(chǔ)
2.2.1 神經(jīng)元
2.2.2 卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)架構(gòu)
2.2.3 卷積神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu)
2.3 本章小結(jié)
3 人體行為識(shí)別中的運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)
3.1 幀間差分法
3.2 混合高斯背景建模法及改進(jìn)
3.3 光流法
3.3.1 稠密光流估計(jì)算法
3.3.2 光流堆
3.3.3 光流法實(shí)驗(yàn)結(jié)果及分析
3.4 本章小結(jié)
4 基于改進(jìn)的雙流CNN-LSTM和C3D網(wǎng)絡(luò)的人體行為識(shí)別
4.1 原雙流卷積神經(jīng)網(wǎng)絡(luò)
4.1.1 原雙流網(wǎng)絡(luò)架構(gòu)
4.1.2 原雙流網(wǎng)絡(luò)架構(gòu)存在的問(wèn)題
4.2 雙流CNN-LSTM和C3D的網(wǎng)絡(luò)結(jié)構(gòu)
4.2.1 網(wǎng)絡(luò)模型的建立
4.2.2 CNN-LSTM空間流卷積神經(jīng)網(wǎng)絡(luò)
4.2.3 C3D時(shí)間流卷積神經(jīng)網(wǎng)絡(luò)
4.2.4 基于Dropout方法的網(wǎng)絡(luò)優(yōu)化
4.2.5 行為特征分類
4.2.6 空間流和時(shí)間流網(wǎng)絡(luò)加權(quán)融合
4.3 UCF-101數(shù)據(jù)集的行為識(shí)別結(jié)果及分析
4.3.1 UCF-101行為數(shù)據(jù)集介紹
4.3.2 系統(tǒng)實(shí)驗(yàn)環(huán)境及模型評(píng)價(jià)標(biāo)準(zhǔn)
4.3.3 空間流和時(shí)間流網(wǎng)絡(luò)特征提取實(shí)驗(yàn)
4.3.4 加權(quán)融合結(jié)果對(duì)比分析
4.4 基建現(xiàn)場(chǎng)異常行為檢測(cè)數(shù)據(jù)集的行為識(shí)別結(jié)果及分析
4.4.1 基建現(xiàn)場(chǎng)異常行為檢測(cè)數(shù)據(jù)集介紹
4.4.2 實(shí)驗(yàn)與結(jié)果分析
4.5 本章小結(jié)
5 基于改進(jìn)的雙流C3D網(wǎng)絡(luò)的人體行為識(shí)別
5.1 雙流C3D的網(wǎng)絡(luò)結(jié)構(gòu)
5.1.1 網(wǎng)絡(luò)模型的建立
5.1.2 C3D空間流和時(shí)間流卷積神經(jīng)網(wǎng)絡(luò)
5.1.3 空間流和時(shí)間流網(wǎng)絡(luò)特征融合
5.2 UCF-101數(shù)據(jù)集的行為識(shí)別結(jié)果及分析
5.2.1 空間流和時(shí)間流網(wǎng)絡(luò)特征提取實(shí)驗(yàn)
5.2.2 特征融合結(jié)果對(duì)比分析
5.2.3 識(shí)別效果和結(jié)果分析
5.3 基建現(xiàn)場(chǎng)異常行為檢測(cè)數(shù)據(jù)集的行為識(shí)別結(jié)果及分析
5.4 本章小結(jié)
6 總結(jié)與展望
6.1 總結(jié)
6.2 展望
致謝
參考文獻(xiàn)
附錄
【參考文獻(xiàn)】:
期刊論文
[1]基于區(qū)域特征融合網(wǎng)絡(luò)的群組行為識(shí)別[J]. 楊興明,范樓苗. 模式識(shí)別與人工智能. 2019(12)
[2]基于深度學(xué)習(xí)的視頻中人體動(dòng)作識(shí)別進(jìn)展綜述[J]. 羅會(huì)蘭,童康,孔繁勝. 電子學(xué)報(bào). 2019(05)
[3]建筑施工現(xiàn)場(chǎng)的安全管理研究[J]. 周凱. 工程技術(shù)研究. 2019(09)
[4]基于3D卷積神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別算法[J]. 張瑞,李其申,儲(chǔ)珺. 計(jì)算機(jī)工程. 2019(01)
[5]基于Faster R-CNN的人體行為檢測(cè)研究[J]. 莫宏偉,汪海波. 智能系統(tǒng)學(xué)報(bào). 2018(06)
[6]時(shí)空特征融合深度學(xué)習(xí)網(wǎng)絡(luò)人體行為識(shí)別方法[J]. 裴曉敏,范慧杰,唐延?xùn)|. 紅外與激光工程. 2018(02)
[7]五個(gè)進(jìn)一步 扎實(shí)開(kāi)展基建現(xiàn)場(chǎng)反違章行動(dòng)[J]. 康健民. 華北電業(yè). 2017(06)
[8]構(gòu)建多尺度深度卷積神經(jīng)網(wǎng)絡(luò)行為識(shí)別模型[J]. 劉智,黃江濤,馮欣. 光學(xué)精密工程. 2017(03)
[9]遷移學(xué)習(xí)研究進(jìn)展[J]. 莊福振,羅平,何清,史忠植. 軟件學(xué)報(bào). 2015(01)
[10]基于傅里葉-隱馬爾科夫模型的人體行為識(shí)別[J]. 黃靜,孔令富,李海濤. 計(jì)算機(jī)仿真. 2011(07)
碩士論文
[1]基于深度學(xué)習(xí)的視頻行為識(shí)別技術(shù)研究[D]. 余興.電子科技大學(xué) 2018
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為檢測(cè)研究[D]. 周道洋.中國(guó)科學(xué)技術(shù)大學(xué) 2018
本文編號(hào):3038871
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3038871.html
最近更新
教材專著