基于視覺—語(yǔ)義關(guān)系的行為識(shí)別方法研究
發(fā)布時(shí)間:2023-03-24 00:32
伴隨著近幾年深度學(xué)習(xí)技術(shù)的興起,基于計(jì)算機(jī)視覺的行為識(shí)別問(wèn)題得到了普遍的關(guān)注且取得了較大的發(fā)展,在安全監(jiān)控、醫(yī)療監(jiān)護(hù)、人機(jī)交互、自動(dòng)駕駛和無(wú)人商店等領(lǐng)域有廣泛的應(yīng)用前景。目前大多數(shù)行為識(shí)別方法只能識(shí)別單人的行為,并且只能識(shí)別諸如行走、跑步、跌倒等少量限定類型的行為,無(wú)法對(duì)場(chǎng)景中人和環(huán)境物體的大量交互行為進(jìn)行檢測(cè)。在復(fù)雜和背景劇烈變化的場(chǎng)景中,使用人工構(gòu)造的特征的行為識(shí)別方法對(duì)環(huán)境變化、物體形變和遮擋的魯棒性較差,造成識(shí)別準(zhǔn)確率較低。此外,由于待處理的圖像數(shù)據(jù)信息量大,目前大多數(shù)基于計(jì)算機(jī)視覺的行為識(shí)別方法計(jì)算復(fù)雜度高,無(wú)法實(shí)現(xiàn)計(jì)算的實(shí)時(shí)性。針對(duì)上述問(wèn)題,本文的主要研究工作如下:(1)針對(duì)視頻中的行為識(shí)別問(wèn)題,提出了一種結(jié)合三維卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的長(zhǎng)-短期時(shí)空視覺模型(Long-Short Term Spatio-Temporal Visual Model,LSTVM)。該方法首先利用三維卷積神經(jīng)網(wǎng)絡(luò)提取視頻中的短期時(shí)空視覺特征,然后將具有通用性的短期特征輸入一種改進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò),提取特異性的長(zhǎng)期行為特征。實(shí)驗(yàn)結(jié)果表明,LSTVM方法在UCF101數(shù)據(jù)集上取得了87.6%的準(zhǔn)確...
【文章頁(yè)數(shù)】:85 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題來(lái)源
1.2 課題研究背景與意義
1.3 相關(guān)領(lǐng)域國(guó)內(nèi)外研究現(xiàn)狀
1.3.1 基于人工規(guī)則構(gòu)造的特征的行為識(shí)別方法
1.3.2 基于機(jī)器學(xué)習(xí)的行為識(shí)別方法
1.3.3 行為識(shí)別數(shù)據(jù)集
1.4 本文主要研究?jī)?nèi)容與組織結(jié)構(gòu)
1.4.1 主要研究?jī)?nèi)容
1.4.2 論文組織結(jié)構(gòu)
第2章 基于計(jì)算機(jī)視覺的行為識(shí)別技術(shù)
2.1 深度學(xué)習(xí)相關(guān)技術(shù)
2.1.1 卷積神經(jīng)網(wǎng)絡(luò)
2.1.2 三維卷積神經(jīng)網(wǎng)絡(luò)
2.1.3 循環(huán)神經(jīng)網(wǎng)絡(luò)
2.2 分類器相關(guān)技術(shù)
2.2.1 支持向量機(jī)
2.2.2 Softmax分類器
2.3 本章小結(jié)
第3章 融合人-物體視覺關(guān)系的長(zhǎng)-短期時(shí)空視覺行為識(shí)別方法
3.1 引言
3.2 模型結(jié)構(gòu)
3.2.1 輸入輸出
3.2.2 短期時(shí)空視覺特征提取
3.2.3 語(yǔ)義-空間位置特征提取
3.2.4 特征融合
3.2.5 長(zhǎng)期行為特征提取
3.2.6 分類器
3.3 實(shí)驗(yàn)與結(jié)果分析
3.3.1 實(shí)驗(yàn)環(huán)境
3.3.2 網(wǎng)絡(luò)訓(xùn)練
3.3.3 誤差分析
3.3.4 計(jì)算速率
3.4 本章小結(jié)
第4章 融合注意力機(jī)制的視覺-語(yǔ)義交互行為檢測(cè)方法
4.1 引言
4.2 模型結(jié)構(gòu)
4.2.1 輸入輸出
4.2.2 物體檢測(cè)器
4.2.3 人-物體空間位置特征提取模塊
4.2.4 空間視覺特征提取模塊
4.2.5 語(yǔ)義特征提取模塊
4.2.6 分類器
4.3 實(shí)驗(yàn)與結(jié)果分析
4.3.1 實(shí)驗(yàn)環(huán)境
4.3.2 網(wǎng)絡(luò)訓(xùn)練
4.3.3 誤差分析
4.3.4 計(jì)算速率
4.3.5 檢測(cè)結(jié)果
4.4 本章小結(jié)
第5章 總結(jié)與展望
5.1 全文工作總結(jié)
5.2 工作展望
致謝
參考文獻(xiàn)
攻讀碩士學(xué)位期間的科研成果
本文編號(hào):3769073
【文章頁(yè)數(shù)】:85 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題來(lái)源
1.2 課題研究背景與意義
1.3 相關(guān)領(lǐng)域國(guó)內(nèi)外研究現(xiàn)狀
1.3.1 基于人工規(guī)則構(gòu)造的特征的行為識(shí)別方法
1.3.2 基于機(jī)器學(xué)習(xí)的行為識(shí)別方法
1.3.3 行為識(shí)別數(shù)據(jù)集
1.4 本文主要研究?jī)?nèi)容與組織結(jié)構(gòu)
1.4.1 主要研究?jī)?nèi)容
1.4.2 論文組織結(jié)構(gòu)
第2章 基于計(jì)算機(jī)視覺的行為識(shí)別技術(shù)
2.1 深度學(xué)習(xí)相關(guān)技術(shù)
2.1.1 卷積神經(jīng)網(wǎng)絡(luò)
2.1.2 三維卷積神經(jīng)網(wǎng)絡(luò)
2.1.3 循環(huán)神經(jīng)網(wǎng)絡(luò)
2.2 分類器相關(guān)技術(shù)
2.2.1 支持向量機(jī)
2.2.2 Softmax分類器
2.3 本章小結(jié)
第3章 融合人-物體視覺關(guān)系的長(zhǎng)-短期時(shí)空視覺行為識(shí)別方法
3.1 引言
3.2 模型結(jié)構(gòu)
3.2.1 輸入輸出
3.2.2 短期時(shí)空視覺特征提取
3.2.3 語(yǔ)義-空間位置特征提取
3.2.4 特征融合
3.2.5 長(zhǎng)期行為特征提取
3.2.6 分類器
3.3 實(shí)驗(yàn)與結(jié)果分析
3.3.1 實(shí)驗(yàn)環(huán)境
3.3.2 網(wǎng)絡(luò)訓(xùn)練
3.3.3 誤差分析
3.3.4 計(jì)算速率
3.4 本章小結(jié)
第4章 融合注意力機(jī)制的視覺-語(yǔ)義交互行為檢測(cè)方法
4.1 引言
4.2 模型結(jié)構(gòu)
4.2.1 輸入輸出
4.2.2 物體檢測(cè)器
4.2.3 人-物體空間位置特征提取模塊
4.2.4 空間視覺特征提取模塊
4.2.5 語(yǔ)義特征提取模塊
4.2.6 分類器
4.3 實(shí)驗(yàn)與結(jié)果分析
4.3.1 實(shí)驗(yàn)環(huán)境
4.3.2 網(wǎng)絡(luò)訓(xùn)練
4.3.3 誤差分析
4.3.4 計(jì)算速率
4.3.5 檢測(cè)結(jié)果
4.4 本章小結(jié)
第5章 總結(jié)與展望
5.1 全文工作總結(jié)
5.2 工作展望
致謝
參考文獻(xiàn)
攻讀碩士學(xué)位期間的科研成果
本文編號(hào):3769073
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3769073.html
最近更新
教材專著