快速姿態(tài)估計與人體解析算法研究
發(fā)布時間:2021-01-17 22:35
姿態(tài)估計及人體解析是圖像與視頻分析領(lǐng)域中人體高層行為理解的基礎(chǔ),在共融式人機交互、智能安防、時尚娛樂等領(lǐng)域擁有廣泛的應(yīng)用前景。目前基于靜態(tài)圖像的姿態(tài)估計算法和人體解析算法應(yīng)用廣泛,但靜態(tài)圖像無法描述運動人體的時空關(guān)系信息,因此基于視頻的姿態(tài)估計及人體解析算法成為新的研究熱點。該文在國內(nèi)外相關(guān)研究的基礎(chǔ)上,探討視頻序列中時空關(guān)系建模及冗余信息快速處理方法,進而對姿態(tài)估計與人體解析的快速處理算法討論研究。針對視頻人物的姿態(tài)估計問題,該文提出結(jié)合光流與多尺度融合卷積網(wǎng)絡(luò)結(jié)構(gòu)的方法,快速處理視頻信息并對運動模糊、人體自遮擋等特殊情況進行討論。鑒于視頻幀間存在的時空相關(guān)性,該文設(shè)計自適應(yīng)關(guān)鍵幀檢測算法將視頻幀分成關(guān)鍵信息和冗余信息兩部分,之后用深度卷積的方法處理關(guān)鍵幀,通過聚類分析、光流傳遞算法對漏檢錯檢的關(guān)鍵點重新檢測定位。最后利用光流法傳遞關(guān)鍵幀信息,預測得到非關(guān)鍵幀的關(guān)鍵點位置,從而得到完整的人體姿態(tài)估計序列;贖uman3.6M數(shù)據(jù)集建立自制數(shù)據(jù)集并設(shè)計對比試驗,實驗證明該文系統(tǒng)有效平衡算法運算精度與時間復雜度。針對視頻人體解析問題,該文提出結(jié)合光流與特征融合卷積網(wǎng)絡(luò)結(jié)構(gòu)的方法,對視頻...
【文章來源】:燕山大學河北省
【文章頁數(shù)】:63 頁
【學位級別】:碩士
【部分圖文】:
前向映射扭曲逆向映射扭曲算法是一種反向映射的方法
圖 2-1 前向映射扭曲映射扭曲算法是一種反向映射的方法。即,已知兩張圖像坐標位算其逆向映射函數(shù)。針對扭曲轉(zhuǎn)換圖像的每個新坐標點( x , y ),用, y ),v ( x , y )逐個尋找其在原圖像上對應(yīng)的位置 u ,v 。根據(jù)像素的 f u ,v ,捕獲新圖像像素值,如圖 2-2 所示。若逆向映射函數(shù)計,v)不在格子上,用插值的方法計算該位置的像素值。值法射變換和圖像扭曲等圖像變換過程中,需要將源圖的灰度值按照標圖像中,由于映射函數(shù)計算后常常會得到浮點數(shù)坐標,因此利素點在目標圖的具體位置。插值法廣泛應(yīng)用于圖像放大縮小、仿方法中。常用方法有兩種:最鄰近插值法和雙線性插值法。
燕山大學工學碩士學位論文2.5.1 U-Net 卷積網(wǎng)絡(luò)模型FCN 作為圖像語義分割的開山之作,至今仍在沿用。U-Net[43]出自 2015 年的MICCAI,同樣是在 FCN 的基礎(chǔ)上進行改進。在傳統(tǒng)圖像處理對輸入圖像進行的編碼和解碼的思路基礎(chǔ)上,U-Net 將網(wǎng)絡(luò)前半段特征提取部分的局部特征與后半段上采樣過程得到的全局特征相融合,從而保留前方下采樣的特征信息,避免圖像像素精度的不可逆丟失,至今依然是炙手可熱的經(jīng)典網(wǎng)絡(luò)。如圖 2-3 所示為 U-Net 網(wǎng)絡(luò)結(jié)構(gòu),由于其網(wǎng)絡(luò)結(jié)構(gòu)如同“U”字型,故得名 U-Net。
【參考文獻】:
期刊論文
[1]結(jié)合遮擋級別的人體姿態(tài)估計方法[J]. 代欽,石祥濱,喬建忠,劉芳,張德園. 計算機輔助設(shè)計與圖形學學報. 2017(02)
[2]視頻中旋轉(zhuǎn)與尺度不變的人體分割方法[J]. 薄一航,HAO Jiang. 自動化學報. 2017(10)
[3]一種基于加權(quán)時空上下文的魯棒視覺跟蹤算法[J]. 徐建強,陸耀. 自動化學報. 2015(11)
[4]一種基于關(guān)節(jié)點信息的人體行為識別新方法[J]. 田國會,尹建芹,韓旭,于靜. 機器人. 2014(03)
本文編號:2983718
【文章來源】:燕山大學河北省
【文章頁數(shù)】:63 頁
【學位級別】:碩士
【部分圖文】:
前向映射扭曲逆向映射扭曲算法是一種反向映射的方法
圖 2-1 前向映射扭曲映射扭曲算法是一種反向映射的方法。即,已知兩張圖像坐標位算其逆向映射函數(shù)。針對扭曲轉(zhuǎn)換圖像的每個新坐標點( x , y ),用, y ),v ( x , y )逐個尋找其在原圖像上對應(yīng)的位置 u ,v 。根據(jù)像素的 f u ,v ,捕獲新圖像像素值,如圖 2-2 所示。若逆向映射函數(shù)計,v)不在格子上,用插值的方法計算該位置的像素值。值法射變換和圖像扭曲等圖像變換過程中,需要將源圖的灰度值按照標圖像中,由于映射函數(shù)計算后常常會得到浮點數(shù)坐標,因此利素點在目標圖的具體位置。插值法廣泛應(yīng)用于圖像放大縮小、仿方法中。常用方法有兩種:最鄰近插值法和雙線性插值法。
燕山大學工學碩士學位論文2.5.1 U-Net 卷積網(wǎng)絡(luò)模型FCN 作為圖像語義分割的開山之作,至今仍在沿用。U-Net[43]出自 2015 年的MICCAI,同樣是在 FCN 的基礎(chǔ)上進行改進。在傳統(tǒng)圖像處理對輸入圖像進行的編碼和解碼的思路基礎(chǔ)上,U-Net 將網(wǎng)絡(luò)前半段特征提取部分的局部特征與后半段上采樣過程得到的全局特征相融合,從而保留前方下采樣的特征信息,避免圖像像素精度的不可逆丟失,至今依然是炙手可熱的經(jīng)典網(wǎng)絡(luò)。如圖 2-3 所示為 U-Net 網(wǎng)絡(luò)結(jié)構(gòu),由于其網(wǎng)絡(luò)結(jié)構(gòu)如同“U”字型,故得名 U-Net。
【參考文獻】:
期刊論文
[1]結(jié)合遮擋級別的人體姿態(tài)估計方法[J]. 代欽,石祥濱,喬建忠,劉芳,張德園. 計算機輔助設(shè)計與圖形學學報. 2017(02)
[2]視頻中旋轉(zhuǎn)與尺度不變的人體分割方法[J]. 薄一航,HAO Jiang. 自動化學報. 2017(10)
[3]一種基于加權(quán)時空上下文的魯棒視覺跟蹤算法[J]. 徐建強,陸耀. 自動化學報. 2015(11)
[4]一種基于關(guān)節(jié)點信息的人體行為識別新方法[J]. 田國會,尹建芹,韓旭,于靜. 機器人. 2014(03)
本文編號:2983718
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/2983718.html
最近更新
教材專著