基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為分析與步態(tài)識(shí)別研究
發(fā)布時(shí)間:2022-08-07 18:23
利用人工智能的方法分析人體行為動(dòng)作,使得機(jī)器能夠感知人體狀態(tài)和運(yùn)動(dòng)意圖,在安防監(jiān)控、人機(jī)交互、數(shù)字娛樂等領(lǐng)域都擁有廣闊的應(yīng)用前景,受到業(yè)界廣泛關(guān)注;另外,隨著計(jì)算機(jī)計(jì)算能力的提升以及互聯(lián)網(wǎng)上大規(guī)模有價(jià)值數(shù)據(jù)的產(chǎn)生,深度學(xué)習(xí)特別是深度卷積神經(jīng)網(wǎng)絡(luò)迎來了較大的發(fā)展。本文將利用深度卷積神經(jīng)網(wǎng)絡(luò)的強(qiáng)大層次化表征能力,圍繞人體行為分析與步態(tài)識(shí)別這一主題,重點(diǎn)關(guān)注面向視頻序列的人體姿態(tài)感知,面向序列化信號(hào)的人體動(dòng)作建模與識(shí)別以及面向序列化信號(hào)的人體步態(tài)識(shí)別,這三個(gè)方向的應(yīng)用研究。主要包含如下3點(diǎn)研究內(nèi)容:(1)面向視頻序列的人體姿態(tài)感知利用深度卷積神經(jīng)網(wǎng)絡(luò)求解SMPL人體模參數(shù)與相機(jī)參數(shù)以實(shí)現(xiàn)人體三維姿態(tài)感知。針對(duì)生成人體模型不正常的問題,借鑒對(duì)抗生成網(wǎng)絡(luò)的思想取代繁瑣的手工規(guī)則,來約束生成的三維人體模型;針對(duì)生成人體三維姿態(tài)序列抖動(dòng)和求解不唯一的問題,結(jié)合視頻幀之間一致性約束、初始狀態(tài)約束以及人體高度約束來得到更精確的人體三維姿態(tài);為驗(yàn)證所提出方法的有效性,將其與兩臺(tái)Kinect(V2)和ipiSoft系列軟件搭建的動(dòng)作捕獲平臺(tái)獲得的數(shù)據(jù)進(jìn)行對(duì)比,分別驗(yàn)證了在動(dòng)作捕獲實(shí)驗(yàn)中不同速度、不同位置、不...
【文章頁數(shù)】:173 頁
【學(xué)位級(jí)別】:博士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 研究背景與意義
1.1.1 研究的理論價(jià)值
1.1.2 研究的應(yīng)用價(jià)值
1.2 論文研究內(nèi)容與組織結(jié)構(gòu)
1.2.1 論文研究內(nèi)容
1.2.2 論文組織結(jié)構(gòu)
第2章 人體行為分析及步態(tài)識(shí)別研究綜述
2.1 人體姿態(tài)感知
2.1.1 人體二維姿態(tài)感知
2.1.2 人體三維姿態(tài)感知
2.2 序列化人體動(dòng)作信號(hào)的建模與識(shí)別
2.2.1 面向視覺數(shù)據(jù)的人體動(dòng)作建模與識(shí)別
2.2.2 面向生理數(shù)據(jù)的人體動(dòng)作建模與識(shí)別
2.3 人體步態(tài)識(shí)別
2.3.1 基于步態(tài)輪廓的方法
2.3.2 基于可穿戴傳感器的方法
2.3.3 基于人體姿態(tài)的方法
2.4 深度卷積神經(jīng)網(wǎng)絡(luò)
第3章 面向視頻序列的人體三維姿態(tài)感知
3.1 概述
3.2 問題描述
3.3 基于視頻序列的人體三維姿態(tài)感知
3.3.1 單張圖片的人體二維姿態(tài)感知
3.3.2 單張圖片人體三維姿態(tài)恢復(fù)
3.3.3 基于視頻序列的人體姿態(tài)生成
3.4 實(shí)驗(yàn)結(jié)果與性能分析
3.4.1 實(shí)驗(yàn)數(shù)據(jù)采集與實(shí)驗(yàn)細(xì)節(jié)說明
3.4.2 實(shí)驗(yàn)結(jié)果及分析
3.5 基于人體姿態(tài)感知的應(yīng)用(以舞蹈評(píng)分小程序?yàn)槔?
3.5.1 舞蹈評(píng)分小程序整體功能介紹
3.5.2 舞蹈評(píng)分小程序軟件技術(shù)架構(gòu)
3.5.3 舞蹈評(píng)分小程序存在的問題及改進(jìn)計(jì)劃
3.6 小結(jié)
第4章 面向序列化信號(hào)的人體動(dòng)作建模與識(shí)別
4.1 概述
4.2 問題描述
4.3 基于人體三維姿態(tài)的動(dòng)作建模與識(shí)別
4.3.1 具有時(shí)空特性的骨骼特征圖生成
4.3.2 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作建模與識(shí)別
4.3.3 參考物體檢測的人體動(dòng)作檢測
4.4 基于人體三維姿態(tài)的動(dòng)作識(shí)別驗(yàn)證
4.4.1 實(shí)驗(yàn)數(shù)據(jù)集與實(shí)驗(yàn)細(xì)節(jié)說明
4.4.2 實(shí)驗(yàn)結(jié)果與分析
4.5 基于腦電信號(hào)的動(dòng)作建模與識(shí)別
4.5.1 實(shí)驗(yàn)數(shù)據(jù)采集與細(xì)節(jié)說明
4.5.2 腦電信號(hào)預(yù)處理
4.5.3 深度卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建
4.6 基于腦電信號(hào)的動(dòng)作識(shí)別驗(yàn)證
4.6.1 實(shí)驗(yàn)數(shù)據(jù)集與實(shí)驗(yàn)細(xì)節(jié)說明
4.6.2 實(shí)驗(yàn)結(jié)果與分析
4.7 小結(jié)
第5章 面向序列化信號(hào)的人體步態(tài)識(shí)別
5.1 概述
5.2 問題描述
5.3 結(jié)合深度卷積特征與聯(lián)合貝葉斯的解決方案
5.3.1 步態(tài)周期提取
5.3.2 深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
5.3.3 步態(tài)特征提取
5.3.4 結(jié)合聯(lián)合貝葉斯的步態(tài)驗(yàn)證
5.3.5 結(jié)合聯(lián)合貝葉斯的步態(tài)鑒別
5.3.6 實(shí)驗(yàn)結(jié)果與性能分析
5.4 結(jié)合人體姿態(tài)感知與序列化信號(hào)建模和識(shí)別的解決方案
5.4.1 實(shí)驗(yàn)數(shù)據(jù)采集與實(shí)驗(yàn)細(xì)節(jié)說明
5.4.2 基于多任務(wù)學(xué)習(xí)深度卷積模型訓(xùn)練
5.4.3 實(shí)驗(yàn)結(jié)果與分析
5.5 小結(jié)
第6章 總結(jié)和展望
6.1 總結(jié)
6.2 主要貢獻(xiàn)與創(chuàng)新點(diǎn)
6.3 展望
參考文獻(xiàn)
攻讀博士學(xué)位期間主要的研究成果
致謝
附錄
附錄一: json文件格式
附錄二: 求解訓(xùn)練過程的中間過程結(jié)果展示
附錄三: 動(dòng)作捕獲實(shí)驗(yàn)情況告知書
附錄四: BVH格式解析后的骨架層次關(guān)系
附錄六: 不同識(shí)別方法在交叉角度下的CMC曲線(OULP)
附錄七: 不同識(shí)別方法在交叉角度下的ROC曲線(OULP)
【參考文獻(xiàn)】:
期刊論文
[1]步態(tài)識(shí)別的深度學(xué)習(xí):綜述[J]. 何逸煒,張軍平. 模式識(shí)別與人工智能. 2018(05)
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的腦電信號(hào)上肢運(yùn)動(dòng)意圖識(shí)別[J]. 王衛(wèi)星,孫守遷,李超,唐智川. 浙江大學(xué)學(xué)報(bào)(工學(xué)版). 2017(07)
[3]基于深度卷積神經(jīng)網(wǎng)絡(luò)的運(yùn)動(dòng)想象分類及其在腦控外骨骼中的應(yīng)用[J]. 唐智川,張克俊,李超,孫守遷,黃琦,張三元. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
博士論文
[1]基于單角色視頻的人物運(yùn)動(dòng)分析[D]. 李偉.山東大學(xué) 2018
[2]基于視覺的三維人體運(yùn)動(dòng)分析[D]. 余家林.華南理工大學(xué) 2018
[3]單目視頻中目標(biāo)的三維運(yùn)動(dòng)跟蹤方法研究[D]. 陳偉.華南理工大學(xué) 2017
[4]視頻中人體姿態(tài)估計(jì)、跟蹤與行為識(shí)別研究[D]. 馬淼.山東大學(xué) 2017
[5]基于深度機(jī)器學(xué)習(xí)的體態(tài)與手勢感知計(jì)算關(guān)鍵技術(shù)研究[D]. 杜宇.浙江大學(xué) 2017
[6]人體步態(tài)及行為識(shí)別關(guān)鍵算法研究[D]. 楊旗.東北大學(xué) 2012
本文編號(hào):3670818
【文章頁數(shù)】:173 頁
【學(xué)位級(jí)別】:博士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 研究背景與意義
1.1.1 研究的理論價(jià)值
1.1.2 研究的應(yīng)用價(jià)值
1.2 論文研究內(nèi)容與組織結(jié)構(gòu)
1.2.1 論文研究內(nèi)容
1.2.2 論文組織結(jié)構(gòu)
第2章 人體行為分析及步態(tài)識(shí)別研究綜述
2.1 人體姿態(tài)感知
2.1.1 人體二維姿態(tài)感知
2.1.2 人體三維姿態(tài)感知
2.2 序列化人體動(dòng)作信號(hào)的建模與識(shí)別
2.2.1 面向視覺數(shù)據(jù)的人體動(dòng)作建模與識(shí)別
2.2.2 面向生理數(shù)據(jù)的人體動(dòng)作建模與識(shí)別
2.3 人體步態(tài)識(shí)別
2.3.1 基于步態(tài)輪廓的方法
2.3.2 基于可穿戴傳感器的方法
2.3.3 基于人體姿態(tài)的方法
2.4 深度卷積神經(jīng)網(wǎng)絡(luò)
第3章 面向視頻序列的人體三維姿態(tài)感知
3.1 概述
3.2 問題描述
3.3 基于視頻序列的人體三維姿態(tài)感知
3.3.1 單張圖片的人體二維姿態(tài)感知
3.3.2 單張圖片人體三維姿態(tài)恢復(fù)
3.3.3 基于視頻序列的人體姿態(tài)生成
3.4 實(shí)驗(yàn)結(jié)果與性能分析
3.4.1 實(shí)驗(yàn)數(shù)據(jù)采集與實(shí)驗(yàn)細(xì)節(jié)說明
3.4.2 實(shí)驗(yàn)結(jié)果及分析
3.5 基于人體姿態(tài)感知的應(yīng)用(以舞蹈評(píng)分小程序?yàn)槔?
3.5.1 舞蹈評(píng)分小程序整體功能介紹
3.5.2 舞蹈評(píng)分小程序軟件技術(shù)架構(gòu)
3.5.3 舞蹈評(píng)分小程序存在的問題及改進(jìn)計(jì)劃
3.6 小結(jié)
第4章 面向序列化信號(hào)的人體動(dòng)作建模與識(shí)別
4.1 概述
4.2 問題描述
4.3 基于人體三維姿態(tài)的動(dòng)作建模與識(shí)別
4.3.1 具有時(shí)空特性的骨骼特征圖生成
4.3.2 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作建模與識(shí)別
4.3.3 參考物體檢測的人體動(dòng)作檢測
4.4 基于人體三維姿態(tài)的動(dòng)作識(shí)別驗(yàn)證
4.4.1 實(shí)驗(yàn)數(shù)據(jù)集與實(shí)驗(yàn)細(xì)節(jié)說明
4.4.2 實(shí)驗(yàn)結(jié)果與分析
4.5 基于腦電信號(hào)的動(dòng)作建模與識(shí)別
4.5.1 實(shí)驗(yàn)數(shù)據(jù)采集與細(xì)節(jié)說明
4.5.2 腦電信號(hào)預(yù)處理
4.5.3 深度卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建
4.6 基于腦電信號(hào)的動(dòng)作識(shí)別驗(yàn)證
4.6.1 實(shí)驗(yàn)數(shù)據(jù)集與實(shí)驗(yàn)細(xì)節(jié)說明
4.6.2 實(shí)驗(yàn)結(jié)果與分析
4.7 小結(jié)
第5章 面向序列化信號(hào)的人體步態(tài)識(shí)別
5.1 概述
5.2 問題描述
5.3 結(jié)合深度卷積特征與聯(lián)合貝葉斯的解決方案
5.3.1 步態(tài)周期提取
5.3.2 深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
5.3.3 步態(tài)特征提取
5.3.4 結(jié)合聯(lián)合貝葉斯的步態(tài)驗(yàn)證
5.3.5 結(jié)合聯(lián)合貝葉斯的步態(tài)鑒別
5.3.6 實(shí)驗(yàn)結(jié)果與性能分析
5.4 結(jié)合人體姿態(tài)感知與序列化信號(hào)建模和識(shí)別的解決方案
5.4.1 實(shí)驗(yàn)數(shù)據(jù)采集與實(shí)驗(yàn)細(xì)節(jié)說明
5.4.2 基于多任務(wù)學(xué)習(xí)深度卷積模型訓(xùn)練
5.4.3 實(shí)驗(yàn)結(jié)果與分析
5.5 小結(jié)
第6章 總結(jié)和展望
6.1 總結(jié)
6.2 主要貢獻(xiàn)與創(chuàng)新點(diǎn)
6.3 展望
參考文獻(xiàn)
攻讀博士學(xué)位期間主要的研究成果
致謝
附錄
附錄一: json文件格式
附錄二: 求解訓(xùn)練過程的中間過程結(jié)果展示
附錄三: 動(dòng)作捕獲實(shí)驗(yàn)情況告知書
附錄四: BVH格式解析后的骨架層次關(guān)系
附錄六: 不同識(shí)別方法在交叉角度下的CMC曲線(OULP)
附錄七: 不同識(shí)別方法在交叉角度下的ROC曲線(OULP)
【參考文獻(xiàn)】:
期刊論文
[1]步態(tài)識(shí)別的深度學(xué)習(xí):綜述[J]. 何逸煒,張軍平. 模式識(shí)別與人工智能. 2018(05)
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的腦電信號(hào)上肢運(yùn)動(dòng)意圖識(shí)別[J]. 王衛(wèi)星,孫守遷,李超,唐智川. 浙江大學(xué)學(xué)報(bào)(工學(xué)版). 2017(07)
[3]基于深度卷積神經(jīng)網(wǎng)絡(luò)的運(yùn)動(dòng)想象分類及其在腦控外骨骼中的應(yīng)用[J]. 唐智川,張克俊,李超,孫守遷,黃琦,張三元. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
博士論文
[1]基于單角色視頻的人物運(yùn)動(dòng)分析[D]. 李偉.山東大學(xué) 2018
[2]基于視覺的三維人體運(yùn)動(dòng)分析[D]. 余家林.華南理工大學(xué) 2018
[3]單目視頻中目標(biāo)的三維運(yùn)動(dòng)跟蹤方法研究[D]. 陳偉.華南理工大學(xué) 2017
[4]視頻中人體姿態(tài)估計(jì)、跟蹤與行為識(shí)別研究[D]. 馬淼.山東大學(xué) 2017
[5]基于深度機(jī)器學(xué)習(xí)的體態(tài)與手勢感知計(jì)算關(guān)鍵技術(shù)研究[D]. 杜宇.浙江大學(xué) 2017
[6]人體步態(tài)及行為識(shí)別關(guān)鍵算法研究[D]. 楊旗.東北大學(xué) 2012
本文編號(hào):3670818
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3670818.html
最近更新
教材專著