多層融合深度局部PCA子空間稀疏優(yōu)化特征提取模型
本文選題:深度學(xué)習(xí) + 多層融合 ; 參考:《電子學(xué)報》2017年10期
【摘要】:子空間方法是主要利用全局信息的經(jīng)典模式識別方法,隨著深度學(xué)習(xí)思想的引入,局部自學(xué)習(xí)結(jié)構(gòu)特征模型得到大家的關(guān)注.利用深度學(xué)習(xí)原理,本文提出一種多層融合的深度局部子空間稀疏優(yōu)化特征自學(xué)習(xí)抽取模型解決目標(biāo)識別問題.首先,對訓(xùn)練樣本集通過最小化重構(gòu)誤差得到第一層的主成分(Principal Component Analysis,PCA)特征映射矩陣;然后,通過L1范數(shù)約束對特征映射結(jié)果進(jìn)行稀疏優(yōu)化,提高算法魯棒性.接著,在第二層映射層以第一層的特征輸出為輸入,進(jìn)行同樣的特征矩陣學(xué)習(xí)操作,最終將圖像映射至深層PCA子空間;然后,對各個映射層的特征提取結(jié)果進(jìn)行加權(quán)融合,進(jìn)行二值化哈希編碼和直方圖分塊編碼,提取圖像的深度子空間稀疏特征.在FERET、AR、Yale等經(jīng)典人臉數(shù)據(jù)庫以及MNIST、CIFAR-10等目標(biāo)數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果表明,該算法可以取得較高的識別率以及較好的光照、表情、人臉朝向魯棒性,并且相對于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)框架具有結(jié)構(gòu)簡潔、收斂速度快等優(yōu)點(diǎn).
[Abstract]:Subspace method is a classical pattern recognition method which mainly uses global information. With the introduction of the idea of deep learning, the local self-learning structural feature model has attracted much attention. Based on the principle of depth learning, this paper presents a multi-layer fusion model of sparse feature extraction in deep local subspace to solve the problem of target recognition. Firstly, the first level principal component Principal Component Analysis (PCA) feature mapping matrix is obtained for the training sample set by minimizing the reconstruction error, and then the algorithm robustness is improved by sparse optimization of the feature mapping results with L1 norm constraints. Then, at the second layer, the feature output of the first layer is taken as the input, and the same feature matrix learning operation is carried out. Finally, the image is mapped to the deep PCA subspace, and then the feature extraction results of each mapping layer are weighted and fused. Binary hash coding and histogram block coding are used to extract the sparse feature of the depth subspace of the image. The experimental results on the classical face databases such as Yale and MNIST CIFAR-10 show that the algorithm can achieve higher recognition rate, better illumination, expression and face orientation robustness. Compared with the convolutional neural network, it has the advantages of simple structure and fast convergence.
【作者單位】: 燕山大學(xué)信息科學(xué)與工程學(xué)院;
【分類號】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 郭小芳;李鋒;宋曉寧;;一種基于PCA的時間序列異常檢測方法[J];江西師范大學(xué)學(xué)報(自然科學(xué)版);2012年03期
2 陳丹;;基于PCA變換的多傳感器圖像融合質(zhì)量評價[J];科技廣場;2009年01期
3 劉振;吳鵬;陳月輝;;基于PCA和神經(jīng)網(wǎng)絡(luò)的人臉識別[J];山東科學(xué);2006年04期
4 馮帆;王嘉禎;劉會英;王惠萍;郭景濤;張斌;;基于PCA和希伯特包絡(luò)分析的盲隱寫分析算法[J];計算機(jī)工程與應(yīng)用;2011年04期
5 齊興敏;劉冠梅;;基于PCA的人臉識別方法的比較研究[J];現(xiàn)代電子技術(shù);2008年06期
6 牛麗平;鄭延斌;李新源;竇育強(qiáng);;融合小波與2D PCA的貝葉斯人臉識別[J];計算機(jī)工程與應(yīng)用;2009年13期
7 方捷;;基于PCA技術(shù)的IT項目特征識別和項目分類研究[J];計算機(jī)時代;2009年08期
8 劉麗敏;樊曉平;廖志芳;劉曼玲;;一種基于L_(2,1)范數(shù)的PCA維數(shù)約簡算法[J];計算機(jī)應(yīng)用研究;2013年01期
9 趙冬娟;梁久禎;;融合小波和自適應(yīng)類增廣PCA的人臉識別[J];計算機(jī)工程與應(yīng)用;2011年35期
10 俞利強(qiáng);馬道鈞;;基于PCA技術(shù)的神經(jīng)網(wǎng)絡(luò)說話人識別研究[J];計算機(jī)工程與應(yīng)用;2010年19期
相關(guān)會議論文 前2條
1 顧群英;李文元;;基于PCA人臉識別的移動電話身份驗(yàn)證方法探討[A];2007北京地區(qū)高校研究生學(xué)術(shù)交流會通信與信息技術(shù)會議論文集(下冊)[C];2008年
2 萬衛(wèi)兵;施鵬飛;;標(biāo)準(zhǔn)像的人臉識別[A];信號與信息處理技術(shù)——第一屆信號與信息處理聯(lián)合學(xué)術(shù)會議論文集[C];2002年
相關(guān)博士學(xué)位論文 前1條
1 張長青;基于自表達(dá)的多視角子空間聚類方法研究[D];天津大學(xué);2015年
相關(guān)碩士學(xué)位論文 前10條
1 董向前;二維PCA人臉識別算法的改進(jìn)研究[D];大連海事大學(xué);2015年
2 李艷;基于小波變換和PCA類方法的人臉識別技術(shù)研究[D];西安電子科技大學(xué);2014年
3 高海燕;基于二維PCA的人臉識別算法研究[D];大連海事大學(xué);2013年
4 劉超;基于改進(jìn)PCA的人臉識別混合算法研究[D];太原理工大學(xué);2011年
5 李姍姍;基于PCA的實(shí)時人臉識別系統(tǒng)的設(shè)計與實(shí)現(xiàn)[D];北京郵電大學(xué);2013年
6 齊興敏;基于PCA的人臉識別技術(shù)的研究[D];武漢理工大學(xué);2007年
7 聶金詞;基于PCA和LDA的人臉圖像檢索技術(shù)研究與實(shí)現(xiàn)[D];深圳大學(xué);2015年
8 趙一儒;基于子空間的人臉識別[D];河北大學(xué);2015年
9 董新;子空間辨識方法的研究及軟件包的開發(fā)[D];華北電力大學(xué)(北京);2006年
10 李剛;基于特征臉法的正面人臉識別研究[D];中國人民解放軍國防科學(xué)技術(shù)大學(xué);2002年
,本文編號:1790659
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1790659.html