基于人臉區(qū)域特征相關(guān)性的視頻流人臉識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
發(fā)布時(shí)間:2020-04-06 17:35
【摘要】:人臉識(shí)別是生物特征識(shí)別的重要領(lǐng)域之一,在人機(jī)交互、身份驗(yàn)證、社會(huì)安防等諸多方面有著十分廣闊的應(yīng)用前景。目前,基于深度學(xué)習(xí)提取人臉特征進(jìn)行人臉靜態(tài)圖片識(shí)別的方法,在Labeled Faces in the Wild (LFW)數(shù)據(jù)集等標(biāo)準(zhǔn)集上的正確識(shí)別率幾乎接近人類。但是,在視頻流中,如監(jiān)控系統(tǒng)中的人臉,由于人體的不停運(yùn)動(dòng)和姿態(tài)偏移等問(wèn)題,導(dǎo)致檢測(cè)到的部分人臉區(qū)域嚴(yán)重模糊和不完整,這種情況下,單純地采用基于圖片的人臉識(shí)別方法,準(zhǔn)確率會(huì)嚴(yán)重下降。視頻具有可用于識(shí)別的大量人臉區(qū)域圖像信息。然而,不是所有幀中的臉部圖像都適合于圖像識(shí)別。因此,利用視頻中所有幀進(jìn)行識(shí)別并不一定會(huì)提高性能,反而顯著增加了識(shí)別的計(jì)算時(shí)間。本文考慮到視頻中人臉的姿態(tài)、圖像的模糊以及人臉區(qū)域圖像的大量冗余等問(wèn)題,設(shè)計(jì)并實(shí)現(xiàn)了基于人臉區(qū)域的特征自相關(guān)系數(shù)和互相關(guān)系數(shù)的人臉區(qū)域圖像選取算法,以及加權(quán)投票判決的人臉識(shí)別方法。該系統(tǒng)可以有效地選取高質(zhì)量人臉圖像用于人臉識(shí)別,并減少連續(xù)視頻幀中人臉圖像的冗余,通過(guò)對(duì)少數(shù)人臉圖像的識(shí)別并加權(quán)投票判決,降低了人臉識(shí)別的計(jì)算次數(shù),提高了識(shí)別系統(tǒng)的正確率、實(shí)時(shí)性與穩(wěn)定性。本文的主要工作如下:1.提出一種衡量人臉圖像特征質(zhì)量的指標(biāo)--人臉圖像的特征自相關(guān)系數(shù)。通過(guò)該指標(biāo)可以濾去人臉模糊、姿態(tài)傾斜的人臉圖像,選取適合識(shí)別的高質(zhì)量人臉圖像,從而提高人臉識(shí)別率;2.提出一種衡量多張人臉圖像間冗余度的指標(biāo)--圖像的特征互相關(guān)系數(shù)。通過(guò)該指標(biāo)減少識(shí)別次數(shù),為實(shí)現(xiàn)實(shí)時(shí)視頻人臉識(shí)別提供可能;3.采用基于深度學(xué)習(xí)的K-NN分類人臉識(shí)別算法實(shí)現(xiàn)單張圖片的識(shí)別,提出一種基于互相關(guān)系數(shù)的加權(quán)投票人臉判決算法;4.實(shí)現(xiàn)了視頻流人臉識(shí)別系統(tǒng)。且通過(guò)對(duì)分類系統(tǒng)分類類別以及類別的特征進(jìn)行版本控制,可遠(yuǎn)程在線更新系統(tǒng)的識(shí)別能力
【圖文】:
領(lǐng)士學(xué)位論文逡逑MASTER'S邋THESIS逡逑Recognition邋(CVPR)上用于提取人臉特征的深度學(xué)習(xí)模型。其模型結(jié)構(gòu)如圖2.1逡逑所示,網(wǎng)絡(luò)由批量輸入層和深層CNNs組成,隨后L2歸一化,輸出人臉特征。逡逑"""E ̄ ̄逡逑邐: ̄ ̄:邐邋邐1邋W邋H邐逡逑DEEP邋ARCHITECTURE邋L2邋#邋0邋#邋r/jj;逡逑iHnHnHBBHi邐1邐邐In邐匕娭;逡逑Batch邐N逡逑圖2.1邋Facenet晸模型結(jié)構(gòu)逡逑Facenet在訓(xùn)練的時(shí)候,采用TripletLoss的方法計(jì)算損失函數(shù),其示意圖如逡逑圖2.2所示。其思想是最小化錨特征與同類間特征的距離,最大化錨特征與其他逡逑類間特征的距離。逡逑Negative逡逑Anchoi^邋^邐LEARNING逡逑Negative逡逑—?0邐Anchor邋^逡逑Positive邐Positive逡逑圖邋2.2邋Triplet邋Loss[1Q]不意圖逡逑除了邋Triplet邋Loss可用于訓(xùn)練特征提取網(wǎng)絡(luò)外,Wen等人提出使用SoftMax逡逑loss和Central邋Loss按比例融合的方法,同樣可以提取在高維下離散的人臉特征。逡逑本文借鑒Wen提出的損失函數(shù),,具體內(nèi)容將在3.4.1節(jié)中詳細(xì)介紹。邐4逡逑2.2目標(biāo)跟蹤簡(jiǎn)介逡逑目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域最重要的研究熱點(diǎn)之一,被廣泛應(yīng)用于軍事、醫(yī)逡逑學(xué)、交通等領(lǐng)域。雖然目標(biāo)跟蹤技術(shù)已經(jīng)研[偭思甘
本文編號(hào):2616816
【圖文】:
領(lǐng)士學(xué)位論文逡逑MASTER'S邋THESIS逡逑Recognition邋(CVPR)上用于提取人臉特征的深度學(xué)習(xí)模型。其模型結(jié)構(gòu)如圖2.1逡逑所示,網(wǎng)絡(luò)由批量輸入層和深層CNNs組成,隨后L2歸一化,輸出人臉特征。逡逑"""E ̄ ̄逡逑邐: ̄ ̄:邐邋邐1邋W邋H邐逡逑DEEP邋ARCHITECTURE邋L2邋#邋0邋#邋r/jj;逡逑iHnHnHBBHi邐1邐邐In邐匕娭;逡逑Batch邐N逡逑圖2.1邋Facenet晸模型結(jié)構(gòu)逡逑Facenet在訓(xùn)練的時(shí)候,采用TripletLoss的方法計(jì)算損失函數(shù),其示意圖如逡逑圖2.2所示。其思想是最小化錨特征與同類間特征的距離,最大化錨特征與其他逡逑類間特征的距離。逡逑Negative逡逑Anchoi^邋^邐LEARNING逡逑Negative逡逑—?0邐Anchor邋^逡逑Positive邐Positive逡逑圖邋2.2邋Triplet邋Loss[1Q]不意圖逡逑除了邋Triplet邋Loss可用于訓(xùn)練特征提取網(wǎng)絡(luò)外,Wen等人提出使用SoftMax逡逑loss和Central邋Loss按比例融合的方法,同樣可以提取在高維下離散的人臉特征。逡逑本文借鑒Wen提出的損失函數(shù),,具體內(nèi)容將在3.4.1節(jié)中詳細(xì)介紹。邐4逡逑2.2目標(biāo)跟蹤簡(jiǎn)介逡逑目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域最重要的研究熱點(diǎn)之一,被廣泛應(yīng)用于軍事、醫(yī)逡逑學(xué)、交通等領(lǐng)域。雖然目標(biāo)跟蹤技術(shù)已經(jīng)研[偭思甘
本文編號(hào):2616816
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2616816.html
最近更新
教材專著