基于視覺—語義關(guān)系的行為識別方法研究
發(fā)布時間:2023-03-24 00:32
伴隨著近幾年深度學(xué)習(xí)技術(shù)的興起,基于計算機視覺的行為識別問題得到了普遍的關(guān)注且取得了較大的發(fā)展,在安全監(jiān)控、醫(yī)療監(jiān)護、人機交互、自動駕駛和無人商店等領(lǐng)域有廣泛的應(yīng)用前景。目前大多數(shù)行為識別方法只能識別單人的行為,并且只能識別諸如行走、跑步、跌倒等少量限定類型的行為,無法對場景中人和環(huán)境物體的大量交互行為進行檢測。在復(fù)雜和背景劇烈變化的場景中,使用人工構(gòu)造的特征的行為識別方法對環(huán)境變化、物體形變和遮擋的魯棒性較差,造成識別準(zhǔn)確率較低。此外,由于待處理的圖像數(shù)據(jù)信息量大,目前大多數(shù)基于計算機視覺的行為識別方法計算復(fù)雜度高,無法實現(xiàn)計算的實時性。針對上述問題,本文的主要研究工作如下:(1)針對視頻中的行為識別問題,提出了一種結(jié)合三維卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的長-短期時空視覺模型(Long-Short Term Spatio-Temporal Visual Model,LSTVM)。該方法首先利用三維卷積神經(jīng)網(wǎng)絡(luò)提取視頻中的短期時空視覺特征,然后將具有通用性的短期特征輸入一種改進的循環(huán)神經(jīng)網(wǎng)絡(luò),提取特異性的長期行為特征。實驗結(jié)果表明,LSTVM方法在UCF101數(shù)據(jù)集上取得了87.6%的準(zhǔn)確...
【文章頁數(shù)】:85 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題來源
1.2 課題研究背景與意義
1.3 相關(guān)領(lǐng)域國內(nèi)外研究現(xiàn)狀
1.3.1 基于人工規(guī)則構(gòu)造的特征的行為識別方法
1.3.2 基于機器學(xué)習(xí)的行為識別方法
1.3.3 行為識別數(shù)據(jù)集
1.4 本文主要研究內(nèi)容與組織結(jié)構(gòu)
1.4.1 主要研究內(nèi)容
1.4.2 論文組織結(jié)構(gòu)
第2章 基于計算機視覺的行為識別技術(shù)
2.1 深度學(xué)習(xí)相關(guān)技術(shù)
2.1.1 卷積神經(jīng)網(wǎng)絡(luò)
2.1.2 三維卷積神經(jīng)網(wǎng)絡(luò)
2.1.3 循環(huán)神經(jīng)網(wǎng)絡(luò)
2.2 分類器相關(guān)技術(shù)
2.2.1 支持向量機
2.2.2 Softmax分類器
2.3 本章小結(jié)
第3章 融合人-物體視覺關(guān)系的長-短期時空視覺行為識別方法
3.1 引言
3.2 模型結(jié)構(gòu)
3.2.1 輸入輸出
3.2.2 短期時空視覺特征提取
3.2.3 語義-空間位置特征提取
3.2.4 特征融合
3.2.5 長期行為特征提取
3.2.6 分類器
3.3 實驗與結(jié)果分析
3.3.1 實驗環(huán)境
3.3.2 網(wǎng)絡(luò)訓(xùn)練
3.3.3 誤差分析
3.3.4 計算速率
3.4 本章小結(jié)
第4章 融合注意力機制的視覺-語義交互行為檢測方法
4.1 引言
4.2 模型結(jié)構(gòu)
4.2.1 輸入輸出
4.2.2 物體檢測器
4.2.3 人-物體空間位置特征提取模塊
4.2.4 空間視覺特征提取模塊
4.2.5 語義特征提取模塊
4.2.6 分類器
4.3 實驗與結(jié)果分析
4.3.1 實驗環(huán)境
4.3.2 網(wǎng)絡(luò)訓(xùn)練
4.3.3 誤差分析
4.3.4 計算速率
4.3.5 檢測結(jié)果
4.4 本章小結(jié)
第5章 總結(jié)與展望
5.1 全文工作總結(jié)
5.2 工作展望
致謝
參考文獻
攻讀碩士學(xué)位期間的科研成果
本文編號:3769073
【文章頁數(shù)】:85 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題來源
1.2 課題研究背景與意義
1.3 相關(guān)領(lǐng)域國內(nèi)外研究現(xiàn)狀
1.3.1 基于人工規(guī)則構(gòu)造的特征的行為識別方法
1.3.2 基于機器學(xué)習(xí)的行為識別方法
1.3.3 行為識別數(shù)據(jù)集
1.4 本文主要研究內(nèi)容與組織結(jié)構(gòu)
1.4.1 主要研究內(nèi)容
1.4.2 論文組織結(jié)構(gòu)
第2章 基于計算機視覺的行為識別技術(shù)
2.1 深度學(xué)習(xí)相關(guān)技術(shù)
2.1.1 卷積神經(jīng)網(wǎng)絡(luò)
2.1.2 三維卷積神經(jīng)網(wǎng)絡(luò)
2.1.3 循環(huán)神經(jīng)網(wǎng)絡(luò)
2.2 分類器相關(guān)技術(shù)
2.2.1 支持向量機
2.2.2 Softmax分類器
2.3 本章小結(jié)
第3章 融合人-物體視覺關(guān)系的長-短期時空視覺行為識別方法
3.1 引言
3.2 模型結(jié)構(gòu)
3.2.1 輸入輸出
3.2.2 短期時空視覺特征提取
3.2.3 語義-空間位置特征提取
3.2.4 特征融合
3.2.5 長期行為特征提取
3.2.6 分類器
3.3 實驗與結(jié)果分析
3.3.1 實驗環(huán)境
3.3.2 網(wǎng)絡(luò)訓(xùn)練
3.3.3 誤差分析
3.3.4 計算速率
3.4 本章小結(jié)
第4章 融合注意力機制的視覺-語義交互行為檢測方法
4.1 引言
4.2 模型結(jié)構(gòu)
4.2.1 輸入輸出
4.2.2 物體檢測器
4.2.3 人-物體空間位置特征提取模塊
4.2.4 空間視覺特征提取模塊
4.2.5 語義特征提取模塊
4.2.6 分類器
4.3 實驗與結(jié)果分析
4.3.1 實驗環(huán)境
4.3.2 網(wǎng)絡(luò)訓(xùn)練
4.3.3 誤差分析
4.3.4 計算速率
4.3.5 檢測結(jié)果
4.4 本章小結(jié)
第5章 總結(jié)與展望
5.1 全文工作總結(jié)
5.2 工作展望
致謝
參考文獻
攻讀碩士學(xué)位期間的科研成果
本文編號:3769073
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3769073.html
最近更新
教材專著