基于深度學習的多視角步態(tài)識別
發(fā)布時間:2021-10-24 00:20
如今指紋、人臉、虹膜等生物特征在身份鑒別領(lǐng)域中應(yīng)用日益廣泛,生物識別技術(shù)的發(fā)展為社會的穩(wěn)定安全運行提供了重要保障。步態(tài)特征作為其中一種,憑借其個體間差異較大、難偽裝并且可在遠距離非受控狀態(tài)下捕捉等特點,克服了傳統(tǒng)生物特征的不足,因此在各場所、各領(lǐng)域逐漸發(fā)揮重要的作用。但是在實際應(yīng)用中,步態(tài)識別依舊面臨著諸多問題,如攝像頭角度、目標著裝、身心狀況及攜帶物的變化等。本文針對識別過程中多視角這一影響較大的問題,基于深度學習技術(shù)展開研究。本文的主要工作如下:1)步態(tài)序列的預(yù)處理。分別對中科院CASIA-B數(shù)據(jù)集以及實驗室采集的DHU-Gait紅外步態(tài)數(shù)據(jù)集進行預(yù)處理工作。首先通過對比目前一些主流的背景差分方法,選擇采用基于混合高斯模型的背景差分法,從步態(tài)序列中得到效果較好的的背景圖像后,通過差分得到初步的步態(tài)二值圖序列,最后對提取到的步態(tài)圖像進行后處理操作,得到歸一化的步態(tài)二值圖,大大提高了用于后續(xù)實驗的前景目標圖像的質(zhì)量。2)針對步態(tài)識別中多視角問題,采用基于視角轉(zhuǎn)換的特征融合網(wǎng)絡(luò)的步態(tài)識別方法。在多視角步態(tài)識別中不同角度的步態(tài)特征間所包含信息量不同,因此采用VTM-GAN網(wǎng)絡(luò)將不同角度下的...
【文章來源】:東華大學上海市 211工程院校 教育部直屬院校
【文章頁數(shù)】:77 頁
【學位級別】:碩士
【部分圖文】:
高斯混合模型背景建模實驗結(jié)果
基于深度學習的多視角步態(tài)識別10M0()=%10∑((2(!0)1!$%(2-10)式中,為非負且均值為0的具有概率密度性質(zhì)的核函數(shù),其積分值為1。為大于0的帶寬。!(=1,2,,)為獨立同分布的像素點。算法流程可以概括為:將圖像中的每一個新像素值與前幾幀中得到的該位置像素點的歷史信息進行對比,如果當前新像素點與其歷史信息的差別在指定范圍內(nèi),那么該點是前景還是背景點與之前的判斷保持一致,并定義其為潛在的像素點。與所有歷史信息比較完成后,若比較次數(shù)大于設(shè)定值,那么該新像素點就被認為是潛在的背景點,若屬于背景點的個數(shù)大于設(shè)定值,那么該新像素點就被分類為真正的背景點。最后將此像素點也歸入歷史信息。本章對于步態(tài)圖像序列的預(yù)處理操作的實驗環(huán)境都為MacOsCatalina10.15.2+Xcode+OpenCV4.0,實驗數(shù)據(jù)集為CASIA-B及DHU-Gait數(shù)據(jù)集,通過混合高斯模型法以及KNN背景建模法完成背景建模后,背景圖像如圖2.2及圖2.3所示。圖2.2高斯混合模型背景建模實驗結(jié)果圖2.3KNN背景建模實驗結(jié)果完成背景建模后,如圖2.4所示,利用步態(tài)序列中的當前幀與實時更新的背景幀作減運算,并取絕對值完成背景差分。圖2.4背景差分原理圖
基于深度學習的多視角步態(tài)識別10M0()=%10∑((2(!0)1!$%(2-10)式中,為非負且均值為0的具有概率密度性質(zhì)的核函數(shù),其積分值為1。為大于0的帶寬。!(=1,2,,)為獨立同分布的像素點。算法流程可以概括為:將圖像中的每一個新像素值與前幾幀中得到的該位置像素點的歷史信息進行對比,如果當前新像素點與其歷史信息的差別在指定范圍內(nèi),那么該點是前景還是背景點與之前的判斷保持一致,并定義其為潛在的像素點。與所有歷史信息比較完成后,若比較次數(shù)大于設(shè)定值,那么該新像素點就被認為是潛在的背景點,若屬于背景點的個數(shù)大于設(shè)定值,那么該新像素點就被分類為真正的背景點。最后將此像素點也歸入歷史信息。本章對于步態(tài)圖像序列的預(yù)處理操作的實驗環(huán)境都為MacOsCatalina10.15.2+Xcode+OpenCV4.0,實驗數(shù)據(jù)集為CASIA-B及DHU-Gait數(shù)據(jù)集,通過混合高斯模型法以及KNN背景建模法完成背景建模后,背景圖像如圖2.2及圖2.3所示。圖2.2高斯混合模型背景建模實驗結(jié)果圖2.3KNN背景建模實驗結(jié)果完成背景建模后,如圖2.4所示,利用步態(tài)序列中的當前幀與實時更新的背景幀作減運算,并取絕對值完成背景差分。圖2.4背景差分原理圖
【參考文獻】:
期刊論文
[1]多視角步態(tài)識別綜述[J]. 王科俊,丁欣楠,邢向磊,劉美辰. 自動化學報. 2019(05)
[2]步態(tài)識別的深度學習:綜述[J]. 何逸煒,張軍平. 模式識別與人工智能. 2018(05)
[3]基于自適應(yīng)混合高斯模型的前景目標檢測[J]. 孟曉燕,董增壽,武霞. 太原科技大學學報. 2014(06)
[4]步態(tài)識別綜述[J]. 王科俊,侯本博. 中國圖象圖形學報. 2007(07)
本文編號:3454202
【文章來源】:東華大學上海市 211工程院校 教育部直屬院校
【文章頁數(shù)】:77 頁
【學位級別】:碩士
【部分圖文】:
高斯混合模型背景建模實驗結(jié)果
基于深度學習的多視角步態(tài)識別10M0()=%10∑((2(!0)1!$%(2-10)式中,為非負且均值為0的具有概率密度性質(zhì)的核函數(shù),其積分值為1。為大于0的帶寬。!(=1,2,,)為獨立同分布的像素點。算法流程可以概括為:將圖像中的每一個新像素值與前幾幀中得到的該位置像素點的歷史信息進行對比,如果當前新像素點與其歷史信息的差別在指定范圍內(nèi),那么該點是前景還是背景點與之前的判斷保持一致,并定義其為潛在的像素點。與所有歷史信息比較完成后,若比較次數(shù)大于設(shè)定值,那么該新像素點就被認為是潛在的背景點,若屬于背景點的個數(shù)大于設(shè)定值,那么該新像素點就被分類為真正的背景點。最后將此像素點也歸入歷史信息。本章對于步態(tài)圖像序列的預(yù)處理操作的實驗環(huán)境都為MacOsCatalina10.15.2+Xcode+OpenCV4.0,實驗數(shù)據(jù)集為CASIA-B及DHU-Gait數(shù)據(jù)集,通過混合高斯模型法以及KNN背景建模法完成背景建模后,背景圖像如圖2.2及圖2.3所示。圖2.2高斯混合模型背景建模實驗結(jié)果圖2.3KNN背景建模實驗結(jié)果完成背景建模后,如圖2.4所示,利用步態(tài)序列中的當前幀與實時更新的背景幀作減運算,并取絕對值完成背景差分。圖2.4背景差分原理圖
基于深度學習的多視角步態(tài)識別10M0()=%10∑((2(!0)1!$%(2-10)式中,為非負且均值為0的具有概率密度性質(zhì)的核函數(shù),其積分值為1。為大于0的帶寬。!(=1,2,,)為獨立同分布的像素點。算法流程可以概括為:將圖像中的每一個新像素值與前幾幀中得到的該位置像素點的歷史信息進行對比,如果當前新像素點與其歷史信息的差別在指定范圍內(nèi),那么該點是前景還是背景點與之前的判斷保持一致,并定義其為潛在的像素點。與所有歷史信息比較完成后,若比較次數(shù)大于設(shè)定值,那么該新像素點就被認為是潛在的背景點,若屬于背景點的個數(shù)大于設(shè)定值,那么該新像素點就被分類為真正的背景點。最后將此像素點也歸入歷史信息。本章對于步態(tài)圖像序列的預(yù)處理操作的實驗環(huán)境都為MacOsCatalina10.15.2+Xcode+OpenCV4.0,實驗數(shù)據(jù)集為CASIA-B及DHU-Gait數(shù)據(jù)集,通過混合高斯模型法以及KNN背景建模法完成背景建模后,背景圖像如圖2.2及圖2.3所示。圖2.2高斯混合模型背景建模實驗結(jié)果圖2.3KNN背景建模實驗結(jié)果完成背景建模后,如圖2.4所示,利用步態(tài)序列中的當前幀與實時更新的背景幀作減運算,并取絕對值完成背景差分。圖2.4背景差分原理圖
【參考文獻】:
期刊論文
[1]多視角步態(tài)識別綜述[J]. 王科俊,丁欣楠,邢向磊,劉美辰. 自動化學報. 2019(05)
[2]步態(tài)識別的深度學習:綜述[J]. 何逸煒,張軍平. 模式識別與人工智能. 2018(05)
[3]基于自適應(yīng)混合高斯模型的前景目標檢測[J]. 孟曉燕,董增壽,武霞. 太原科技大學學報. 2014(06)
[4]步態(tài)識別綜述[J]. 王科俊,侯本博. 中國圖象圖形學報. 2007(07)
本文編號:3454202
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3454202.html
最近更新
教材專著