基于深度學(xué)習(xí)和圖結(jié)構(gòu)模型的人體姿態(tài)估計
發(fā)布時間:2023-05-07 18:42
人體姿態(tài)估計是計算機視覺領(lǐng)域研究的熱點問題,在行為識別、人機交互、運動分析領(lǐng)域都具有廣泛的應(yīng)用。人體姿態(tài)估計是指在2D/3D的靜態(tài)圖像/視頻中檢測出人體各關(guān)節(jié)點的位置,根據(jù)人體各關(guān)節(jié)點的空間連接關(guān)系,估計出人體姿態(tài)的過程。在自然圖像中,由于受復(fù)雜場景、嚴(yán)重遮擋、光照變化、服飾差異等因素的影響,導(dǎo)致人體姿態(tài)估計不夠準(zhǔn)確和魯棒。因此,在無約束的環(huán)境下對高自由度的人體實現(xiàn)高精度的魯棒姿態(tài)估計仍面臨巨大的挑戰(zhàn)。本文針對自然圖像/視頻的人體姿態(tài)估計問題,利用深度學(xué)習(xí)網(wǎng)絡(luò)和圖結(jié)構(gòu)模型,更好地描述了人體部件的外觀模型和人體部件空間約束模型,充分地表示了復(fù)雜的人體結(jié)構(gòu),解決了自然圖像中靜態(tài)人體或動態(tài)人體兩方面的姿態(tài)估計問題。主要的研究內(nèi)容概括如下:(1)提出了一種基于級聯(lián)糾錯機制的人體姿態(tài)跟蹤方法,用于解決視頻序列圖像人體姿態(tài)跟蹤過程中手腕不易定位準(zhǔn)確的問題。手腕運動相對其他人體部件幅度大且無固定軌跡,是人體姿態(tài)過程中定位精度最低的部件。然而,能否準(zhǔn)確地估計某一時刻的人體姿態(tài),主要取決于手腕的位置。本方法針對人體姿態(tài)估計中手腕定位不準(zhǔn)確的問題,利用視頻圖像序列特有的時間信息和自適應(yīng)的膚色模型,提出了一...
【文章頁數(shù)】:81 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
ABSTRACT
符號對照表
縮略語對照表
第一章 緒論
1.1 研究背景和意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 基于模型匹配的人體姿態(tài)估計
1.2.2 基于深度學(xué)習(xí)的人體姿態(tài)估計
1.3 論文的研究內(nèi)容及章節(jié)安排
1.3.1 主要研究內(nèi)容
1.3.2 論文章節(jié)安排
第二章 基于級聯(lián)糾錯機制的人體姿態(tài)跟蹤方法
2.1 引言
2.2 基于級聯(lián)糾錯機制的人體姿態(tài)跟蹤方法
2.2.1 算法框架
2.2.2 單幀圖像的人體姿態(tài)估計
2.2.3 手腕的視覺跟蹤
2.2.4 級聯(lián)糾錯機制
2.3 實驗結(jié)果與分析
2.3.1 數(shù)據(jù)庫和評價標(biāo)準(zhǔn)
2.3.2 實驗設(shè)置
2.3.3 模型分析
2.3.4 實驗結(jié)果對比
2.3.5 定性分析
2.4 本章小結(jié)
第三章 基于Faster R-CNN的靜態(tài)圖像人體姿態(tài)估計方法
3.1 引言
3.2 基于Faster R-CNN的靜態(tài)圖像人體姿態(tài)估計方法
3.2.1 算法框架
3.2.2 基于Faster R-CNN的部件檢測模型
3.2.3 人體部件空間約束模型
3.3 實驗結(jié)果與分析
3.3.1 數(shù)據(jù)庫和評價標(biāo)準(zhǔn)
3.3.2 實驗設(shè)置
3.3.3 模型分析
3.3.4 實驗結(jié)果對比
3.3.5 定性分析
3.4 本章小結(jié)
第四章 基于深度學(xué)習(xí)網(wǎng)絡(luò)和多層次圖結(jié)構(gòu)模型一體的 人體姿態(tài)估計方法
4.1 引言
4.2 基于深度學(xué)習(xí)網(wǎng)絡(luò)和多層次圖結(jié)構(gòu)模型一體的人體姿態(tài)估計方法
4.2.1 算法框架
4.2.2 基于深度學(xué)習(xí)網(wǎng)絡(luò)的部件外觀模型
4.2.3 多層次圖結(jié)構(gòu)模型
4.3 實驗結(jié)果與分析
4.3.1 數(shù)據(jù)庫和評價標(biāo)準(zhǔn)
4.3.2 實驗設(shè)置
4.3.3 多層次圖結(jié)構(gòu)模型的作用分析
4.3.4 實驗結(jié)果對比
4.3.5 定性分析
4.4 本章小結(jié)
第五章 總結(jié)與展望
5.1 論文總結(jié)
5.2 工作展望
參考文獻
致謝
作者簡介
本文編號:3811124
【文章頁數(shù)】:81 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
ABSTRACT
符號對照表
縮略語對照表
第一章 緒論
1.1 研究背景和意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 基于模型匹配的人體姿態(tài)估計
1.2.2 基于深度學(xué)習(xí)的人體姿態(tài)估計
1.3 論文的研究內(nèi)容及章節(jié)安排
1.3.1 主要研究內(nèi)容
1.3.2 論文章節(jié)安排
第二章 基于級聯(lián)糾錯機制的人體姿態(tài)跟蹤方法
2.1 引言
2.2 基于級聯(lián)糾錯機制的人體姿態(tài)跟蹤方法
2.2.1 算法框架
2.2.2 單幀圖像的人體姿態(tài)估計
2.2.3 手腕的視覺跟蹤
2.2.4 級聯(lián)糾錯機制
2.3 實驗結(jié)果與分析
2.3.1 數(shù)據(jù)庫和評價標(biāo)準(zhǔn)
2.3.2 實驗設(shè)置
2.3.3 模型分析
2.3.4 實驗結(jié)果對比
2.3.5 定性分析
2.4 本章小結(jié)
第三章 基于Faster R-CNN的靜態(tài)圖像人體姿態(tài)估計方法
3.1 引言
3.2 基于Faster R-CNN的靜態(tài)圖像人體姿態(tài)估計方法
3.2.1 算法框架
3.2.2 基于Faster R-CNN的部件檢測模型
3.2.3 人體部件空間約束模型
3.3 實驗結(jié)果與分析
3.3.1 數(shù)據(jù)庫和評價標(biāo)準(zhǔn)
3.3.2 實驗設(shè)置
3.3.3 模型分析
3.3.4 實驗結(jié)果對比
3.3.5 定性分析
3.4 本章小結(jié)
第四章 基于深度學(xué)習(xí)網(wǎng)絡(luò)和多層次圖結(jié)構(gòu)模型一體的 人體姿態(tài)估計方法
4.1 引言
4.2 基于深度學(xué)習(xí)網(wǎng)絡(luò)和多層次圖結(jié)構(gòu)模型一體的人體姿態(tài)估計方法
4.2.1 算法框架
4.2.2 基于深度學(xué)習(xí)網(wǎng)絡(luò)的部件外觀模型
4.2.3 多層次圖結(jié)構(gòu)模型
4.3 實驗結(jié)果與分析
4.3.1 數(shù)據(jù)庫和評價標(biāo)準(zhǔn)
4.3.2 實驗設(shè)置
4.3.3 多層次圖結(jié)構(gòu)模型的作用分析
4.3.4 實驗結(jié)果對比
4.3.5 定性分析
4.4 本章小結(jié)
第五章 總結(jié)與展望
5.1 論文總結(jié)
5.2 工作展望
參考文獻
致謝
作者簡介
本文編號:3811124
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3811124.html
最近更新
教材專著