天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

基于目標空間構(gòu)造的人臉識別研究

發(fā)布時間:2021-10-30 04:58
  人臉識別是一項被廣泛應用于日常生活的身份認證技術,在公共安全和快捷支付等領域都有較為成熟的應用。人臉識別的主要應用是身份驗證,該過程包括面部信息提取和數(shù)據(jù)庫匹配。目前,人臉識別的研究重點是無約束場景的人臉識別,低分辨率、遮擋、年齡、姿勢和光照等因素對識別的結(jié)果會產(chǎn)生較大的影響。近年來,隨著深度學習的快速發(fā)展,無約束場景的人臉識別也取得了較大的突破,其中損失函數(shù)是提升模型性能的重要因素。目前,損失函數(shù)的研究方向分為度量學習方法和多分類方法。本文通過分析上述算法的優(yōu)化目的,得出它們最終都是構(gòu)造一個可區(qū)分性的目標空間;跇(gòu)造目標空間的分布狀況,本文提出了樣本自聚集算法,該方法能夠通過聚集同類別的樣本構(gòu)建具有可區(qū)分性的目標空間。論文的主要工作如下:(1)回顧了近年來基于卷積神經(jīng)網(wǎng)絡的人臉識別算法,分別對度量學習和多分類方法進行了詳細的分析。度量學習通過直接優(yōu)化目標空間的樣本位置,使得目標空間中的樣本均能夠服從最大的類內(nèi)距離小于最小的類間距離。多分類方法通過訓練多類別分類器間接優(yōu)化樣本在目標空間的位置,并在原有損失函數(shù)的基礎上添加邊界懲罰,減小了類內(nèi)距離,使得目標空間的樣本特征具有良好的可區(qū)分... 

【文章來源】:江西師范大學江西省

【文章頁數(shù)】:66 頁

【學位級別】:碩士

【部分圖文】:

基于目標空間構(gòu)造的人臉識別研究


孿生神經(jīng)網(wǎng)絡-Chopra結(jié)構(gòu)圖

示意圖,三元組,示意圖,樣本


基于目標空間構(gòu)造的人臉識別研究112ap,0piiiLfxfxLx(2-10)2an,0niiiLfxfxLx(2-11)分析上述梯度可得出,正例樣本的優(yōu)化方向是向錨點靠近,而負例樣本是在遠離錨點,錨點的優(yōu)化方向是根據(jù)正樣本點和負樣本點的位置取了一個折衷,但仍是靠近正樣本點遠離負樣本點。該損失函數(shù)優(yōu)化過程如圖2-2所示。圖2-2三元組損失優(yōu)化示意圖圖中的圓圈代表同一類別,分別為錨點和正例點,方塊為另外一個類別的負例點。當上述樣本組合的位置關系不滿足約束關系時,它們將根據(jù)損失函數(shù)產(chǎn)生的梯度優(yōu)化自身的位置,使得同類別的樣本間的距離更近,而不同類別的樣本間的距離更遠。三元組損失的優(yōu)化目標是期望任意樣本組合的類內(nèi)距離均小于類間距離。相對于對比損失單方面優(yōu)化正例對或者負例對,三元組損失采取同時優(yōu)化正樣本對和負樣本對的方式進行訓練。但該方法的實際代價非常大,三元組的組合數(shù)目會隨著樣本數(shù)和類別數(shù)的增加呈指數(shù)增加。例如有3個類別,每個類別都包含10個樣本,可訓練的三元組組合數(shù)是2700組。若全部訓練這些樣本組合,其訓練代價非常龐大。因此如何挑選適當?shù)娜M進行訓練是該方法的一個難點。因此,F(xiàn)aceNet提出了半困難的樣本組合,即選擇正例對距離小于負例對距離但不滿足邊界約束的樣本組合。但是該樣本組合的生成方式需要依賴提前計算所有樣本的位置關系,再挑選出符合條件的樣本組合。該方法的代價仍然非常巨大,后續(xù)的改進方法也從三元組損失的固有缺點出發(fā),分為改良約束條件和改良樣本組合的選擇策略。三元組損失有效利用了正樣本對和負樣本對之間的位置關系,使得模型優(yōu)化的方向更有利于實現(xiàn)類內(nèi)距離小于類間距離。該方法存在的主要缺陷是訓練的組合數(shù)太過龐大,如何選擇更有效的訓練組合

示意圖,結(jié)構(gòu)性,示意圖,樣本


的角度懲罰,使得局部樣本組合的優(yōu)化過程更易于收斂。改進約束條件的方法使得模型的收斂速度也有一定的提升。改進訓練樣本組合的方法近年來發(fā)展迅速,其中LiftedStruct[46]和RankedList[47]兩種方法通過提高批樣本組合的利用率獲取更快的收斂速度。與它們相類似的方法也稱為結(jié)構(gòu)性損失。LiftedStruct的主要創(chuàng)新點在于其高效地利用了批樣本。原先對比損失和三元組損失的優(yōu)化的是兩個或三個樣本的位置關系,而批樣本內(nèi)部的樣本之間并無直接關聯(lián)性。LiftedStruct將樣本位置關系拓展到了整個批樣本內(nèi)部,具體的改進過程如圖2-3所示。圖2-3結(jié)構(gòu)性損失-Song示意圖

【參考文獻】:
期刊論文
[1]角度余量損失和中心損失聯(lián)合的深度人臉識別[J]. 李振東,鐘勇,陳蔓,王理順.  計算機應用. 2019(S2)
[2]深度度量學習綜述[J]. 劉冰,李瑞麟,封舉富.  智能系統(tǒng)學報. 2019(06)
[3]基于集成人臉對距離學習的跨年齡人臉驗證[J]. 吳嘉琪,景麗萍.  模式識別與人工智能. 2017(12)
[4]有遮擋人臉識別綜述:從子空間回歸到深度學習[J]. 李小薪,梁榮華.  計算機學報. 2018(01)
[5]多姿態(tài)人臉識別綜述[J]. 鄒國鋒,傅桂霞,李海濤,高明亮,王科俊.  模式識別與人工智能. 2015(07)
[6]基于局部二值模式和深度學習的人臉識別[J]. 張雯,王文偉.  計算機應用. 2015(05)
[7]基于HOG金字塔人臉識別方法[J]. 楊冰,王小華,楊鑫,黃孝喜.  浙江大學學報(工學版). 2014(09)
[8]基于鑒別稀疏保持嵌入的人臉識別算法[J]. 馬小虎,譚延琪.  自動化學報. 2014(01)
[9]張量局部Fisher判別分析的人臉識別[J]. 鄭建煒,王萬良,姚曉敏,石海燕.  自動化學報. 2012(09)
[10]基于HMM的單樣本可變光照、姿態(tài)人臉識別[J]. 胡峰松,張茂軍,鄒北驥,馬俊容.  計算機學報. 2009(07)



本文編號:3466096

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3466096.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶4c07c***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com