基于深度學習的視頻行為識別研究與實現(xiàn)
發(fā)布時間:2023-03-31 20:28
人體行為識別在眾多場景具有十分廣闊的應用前景,隨著深度學習成為人工智能發(fā)展歷程中不可或缺的核心技術,采用深度學習的方法對視頻中人體行為識別進行研究與應用具有重要的意義和價值。卷積神經(jīng)網(wǎng)絡(CNN)作為深度學習的一種代表算法,在計算機視覺領域,如圖像識別與目標檢測等任務中取得了成功的應用,視頻相較于圖像增加了時間維度,并且視頻數(shù)據(jù)格式多樣,如何利用CNN有效的學習視頻中人體行為的時序信息,目前仍值得進行深入研究和探討。因此,采用CNN對視頻行為識別算法進行研究和改進,針對多種視頻數(shù)據(jù)格式的行為識別問題提出和實現(xiàn)了對應的方案,同時,為探索和推動行為識別技術面向實際應用,實現(xiàn)了一種監(jiān)控視頻場景下的行為識別系統(tǒng),對視頻中的人體行為進行自動識別。主要內(nèi)容及創(chuàng)新包括:1.針對深度視頻,首先采用空間結構動態(tài)深度圖技術,將視頻映射壓縮到二維空間作行為表征,然后考慮到該表征抽象層次較低,為對該表征進行更充分的特征學習和抽象,設計了具有聯(lián)合監(jiān)督的卷積神經(jīng)網(wǎng)絡,提高網(wǎng)絡的類內(nèi)聚合和類間分離能力,同時該網(wǎng)絡的設計還充分的考慮到小樣本情況下訓練過程容易過擬合的情況。2.針對RGB視頻,提出了基于時空注意力與自適...
【文章頁數(shù)】:69 頁
【學位級別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 研究背景和意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 基于深度視頻的人體行為識別研究現(xiàn)狀
1.2.2 基于RGB視頻的人體行為識別研究現(xiàn)狀
1.3 本文主要工作及創(chuàng)新點
1.3.1 本文章節(jié)安排
1.3.2 本文主要創(chuàng)新點
第二章 深度學習理論基礎
2.1 卷積神經(jīng)網(wǎng)絡的理論基礎
2.1.1 卷積層
2.1.2 池化層
2.1.3 全連接層
2.1.4 損失函數(shù)
2.1.5 激活函數(shù)
2.2 神經(jīng)網(wǎng)絡優(yōu)化方法
2.2.1 梯度下降法
2.2.2 誤差反向傳播算法
2.3 本章小結
第三章 基于深度視頻的人體行為識別研究
3.1 行為表征方法
3.1.1 雙向排序池化原理
3.1.2 空間結構動態(tài)深度圖
3.2 基于聯(lián)合監(jiān)督的卷積神經(jīng)網(wǎng)絡
3.2.1 網(wǎng)絡結構設計
3.2.3 聯(lián)合損失函數(shù)
3.3 實驗與結果分析
3.3.1 網(wǎng)絡訓練與參數(shù)設置
3.3.2 識別結果與分析
3.4 本章小結
第四章 基于RGB視頻的人體行為識別研究
4.1 TSN總體結構
4.2 基于時空注意力與自適應融合的網(wǎng)絡
4.2.1 特征提取網(wǎng)絡
4.2.2 時空注意力模塊
4.2.3 自適應融合模塊
4.3 實驗與結果分析
4.3.1 數(shù)據(jù)集
4.3.2 網(wǎng)絡訓練及參數(shù)設置
4.3.3 結果分析
4.4 本章小結
第五章 行為識別系統(tǒng)的設計與實現(xiàn)
5.1 系統(tǒng)概述
5.2 識別算法
5.2.1 自建數(shù)據(jù)集與模型訓練
5.2.2 在線行為識別算法
5.3 實驗與分析
5.3.1 識別算法實驗及分析
5.3.2 系統(tǒng)整體實驗及分析
5.4 本章小結
第六章 總結與展望
6.1 論文總結
6.2 工作展望
致謝
參考文獻
攻讀碩士期間取得的研究成果
本文編號:3775737
【文章頁數(shù)】:69 頁
【學位級別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 研究背景和意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 基于深度視頻的人體行為識別研究現(xiàn)狀
1.2.2 基于RGB視頻的人體行為識別研究現(xiàn)狀
1.3 本文主要工作及創(chuàng)新點
1.3.1 本文章節(jié)安排
1.3.2 本文主要創(chuàng)新點
第二章 深度學習理論基礎
2.1 卷積神經(jīng)網(wǎng)絡的理論基礎
2.1.1 卷積層
2.1.2 池化層
2.1.3 全連接層
2.1.4 損失函數(shù)
2.1.5 激活函數(shù)
2.2 神經(jīng)網(wǎng)絡優(yōu)化方法
2.2.1 梯度下降法
2.2.2 誤差反向傳播算法
2.3 本章小結
第三章 基于深度視頻的人體行為識別研究
3.1 行為表征方法
3.1.1 雙向排序池化原理
3.1.2 空間結構動態(tài)深度圖
3.2 基于聯(lián)合監(jiān)督的卷積神經(jīng)網(wǎng)絡
3.2.1 網(wǎng)絡結構設計
3.2.3 聯(lián)合損失函數(shù)
3.3 實驗與結果分析
3.3.1 網(wǎng)絡訓練與參數(shù)設置
3.3.2 識別結果與分析
3.4 本章小結
第四章 基于RGB視頻的人體行為識別研究
4.1 TSN總體結構
4.2 基于時空注意力與自適應融合的網(wǎng)絡
4.2.1 特征提取網(wǎng)絡
4.2.2 時空注意力模塊
4.2.3 自適應融合模塊
4.3 實驗與結果分析
4.3.1 數(shù)據(jù)集
4.3.2 網(wǎng)絡訓練及參數(shù)設置
4.3.3 結果分析
4.4 本章小結
第五章 行為識別系統(tǒng)的設計與實現(xiàn)
5.1 系統(tǒng)概述
5.2 識別算法
5.2.1 自建數(shù)據(jù)集與模型訓練
5.2.2 在線行為識別算法
5.3 實驗與分析
5.3.1 識別算法實驗及分析
5.3.2 系統(tǒng)整體實驗及分析
5.4 本章小結
第六章 總結與展望
6.1 論文總結
6.2 工作展望
致謝
參考文獻
攻讀碩士期間取得的研究成果
本文編號:3775737
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3775737.html
最近更新
教材專著