一種新的基于無(wú)損失函數(shù)的深度卷積神經(jīng)網(wǎng)絡(luò)的圖像特征提取方法
本文選題:圖像識(shí)別 切入點(diǎn):圖像特征提取 出處:《山東大學(xué)》2017年碩士論文 論文類型:學(xué)位論文
【摘要】:作為人工智能的重要技術(shù)之一,圖像識(shí)別技術(shù)已經(jīng)在社會(huì)的各個(gè)領(lǐng)域被廣泛應(yīng)用。例如:集裝箱號(hào)碼圖像自動(dòng)識(shí)別,人臉圖像識(shí)別,病理圖像自動(dòng)識(shí)別等等。對(duì)于一個(gè)成熟的圖像識(shí)別系統(tǒng),其主要步驟可以分為四步:圖像采集與預(yù)處理,目標(biāo)圖像定位和分割,圖像特征提取,特征識(shí)別與分類。其中,圖像特征提取是其最為重要的組成步驟。提取到的圖像特征的質(zhì)量直接影響著最終的分類結(jié)果。近年來(lái),隨著深度學(xué)習(xí)的發(fā)展,越來(lái)越多的圖像特征提取采用了深度學(xué)習(xí)技術(shù)。由于深度卷積神經(jīng)網(wǎng)絡(luò)本身獨(dú)特的結(jié)構(gòu)優(yōu)勢(shì),使其成為眾多給予深度學(xué)習(xí)的圖像識(shí)別程序中最為主流的圖像特征提取手段。然而,由于目前深度學(xué)習(xí)研究趨勢(shì)向著多層次,更復(fù)雜的方向,訓(xùn)練一個(gè)收斂的深度網(wǎng)絡(luò)難度越來(lái)越高,不僅需要調(diào)整越來(lái)越多的參數(shù),還需要保證其損失函數(shù)的收斂性,有時(shí)候還需要整合一些現(xiàn)有的訓(xùn)練技巧,例如dropout,maxout等。近年來(lái),隨著簡(jiǎn)單深度學(xué)習(xí)結(jié)構(gòu)的提出,越來(lái)越多的研究人員著眼于這種無(wú)損失函數(shù)的深度學(xué)習(xí)模型。其中,最為著名的是PCANet深度卷積網(wǎng)絡(luò)模型。其無(wú)損失函數(shù)的特性使得網(wǎng)絡(luò)訓(xùn)練的難度大大降低。然而,由于其選擇使用的無(wú)監(jiān)督的主成分分析(Principal Component Analysis,PCA)算法進(jìn)行卷積核的訓(xùn)練,使得最終的圖像識(shí)別效果并不是那么理想。雖然隨后基于監(jiān)督學(xué)習(xí)的線性判別式分析(Linear Discriminant Analysis,LDA)方法來(lái)訓(xùn)練卷積核的深度學(xué)習(xí)模型LDANet被提出,但是由于LDA算法自身正負(fù)樣本分離能力的局限性,使得LDANet模型的圖像識(shí)別結(jié)果并無(wú)顯著提升。并且,因?yàn)槠涮赜械南虏蓸臃绞?使其極易產(chǎn)生過(guò)度擬合現(xiàn)象。使得訓(xùn)練效果不盡如人意。在此論文中,針對(duì)PCANet與LDANet所出現(xiàn)的問(wèn)題,主要做出了以下的貢獻(xiàn):1)本文基于PCANet的基本結(jié)構(gòu),創(chuàng)造性地將Marginal Fisher Analysis(MFA)引入卷積核的訓(xùn)練,提出了一種新的簡(jiǎn)單深度學(xué)習(xí)架構(gòu)MFANet。由于MFA采取監(jiān)督學(xué)習(xí)的方式,并且通過(guò)提取后的特征向量進(jìn)行映射,使得投影后的正樣本之間的距離盡可能小,同時(shí)保證負(fù)樣本之間的距離盡可能大。使得卷積同類圖像所得的特征與卷積后的異類圖像特征在新的特征空間得以有效分離。本文運(yùn)用標(biāo)準(zhǔn)數(shù)據(jù)集:字符識(shí)別數(shù)據(jù)集ICDAR2003,測(cè)試所提出的深度模型的識(shí)別性能,并且通過(guò)和一些流行的圖像特征提取模型進(jìn)行比較,最終的圖像分類的結(jié)果表明MFANet模型的特征提取能力比其他深度模型要好。2)本文提出了一種新的下采樣方法:基于概率的塊級(jí)隨機(jī)直方圖化,來(lái)解決基于PCANet的模型所具有的魯棒性不強(qiáng)的特點(diǎn)。該方法的核心是計(jì)算塊級(jí)像素出現(xiàn)概率,并基于該概率去采樣決定塊級(jí)特征像素點(diǎn)是否保留,最終運(yùn)用直方圖輸出特征。通過(guò)運(yùn)用圖像識(shí)別數(shù)據(jù)集:PIE FACE數(shù)據(jù)集,將所提出的下采樣方法所池化的特征分類結(jié)果的與其它流行的下采樣后的特征分類結(jié)果進(jìn)行比較,實(shí)驗(yàn)結(jié)果表明本文所提出的方法有效地減少了過(guò)擬合現(xiàn)象。
[Abstract]:As one of the important technology of artificial intelligence, image recognition technology has been widely used in various fields of society. For example: automatic identification of container number image, face image recognition, image recognition and so on. The pathological image recognition system for a mature, the main steps can be divided into four steps: image acquisition and preprocessing, target image location and segmentation, feature extraction, feature recognition and classification. The image feature extraction is the most important component steps. The quality of image feature extraction to directly affect the final classification result. In recent years, with the development of deep learning, image feature extraction has been used increasingly deep learning technology due to structural advantage of deep convolutional neural network is unique, which give as many image features most mainstream image recognition program to extract deep learning means. However, due to the current trend towards multi-level deep learning research, more complex direction, depth of network is more and more high training a convergence, not only need to adjust the parameters of more and more, but also need to ensure the convergence of the loss function, sometimes also need to integrate some of the existing training techniques, such as dropout, maxout etc. in recent years. With the development of deep learning, simple structure, focus on the deep learning model to the loss function more and more researchers. Among them, the most famous is the PCANet network model. The depth of the convolution loss function makes the network training difficulty is greatly reduced. However, due to the choice of unsupervised use of principal components the analysis (Principal Component Analysis PCA) algorithm for convolution kernel training, makes the image recognition of the final result is not so ideal. Although based on supervised learning The linear discriminant analysis (Linear Discriminant, Analysis, LDA) for training the convolution kernel deep learning model LDANet was proposed, but due to the limitation of the LDA algorithm's positive and negative samples separation ability, makes the LDANet model image recognition results there is no significant improvement. And, because of its unique sampling methods, make it easy over fitting phenomenon. The training effect is not satisfactory. In this paper, the PCANet and LDANet for the problem, mainly made the following contributions: 1) in this paper, the basic structure of PCANet based on Marginal Fisher Analysis (creative MFA) the introduction of convolution kernel training, proposes a new simple deep learning the architecture of MFANet. MFA take the supervised learning method, mapping and through the extracted feature vector, which is between the sample after projection distance as small as possible, at the same time. The distance between the card negative samples as large as possible. The heterogeneous characteristics and image features of similar images obtained by convolution convolution can be effectively separated in the new feature space. By using the standard data set: ICDAR2003 character recognition data set, the recognition performance of the proposed depth model test, and through the comparison of extraction model and image features some of the popular image classification, the final results show that the feature extraction ability of MFANet model is better than the other depth model.2) this paper proposes a new sampling method: the probability of random block level histogram based, to solve the robustness of PCANet model based on the core is not strong. The method is to calculate the pixel block probability, and based on the sampling probability to decide whether the pixel block features retained, finally using histogram output characteristics. Through the use of image recognition Other data sets: PIE FACE dataset, comparing the proposed classification results with the other popular classification results, and the experimental results show that the proposed method effectively reduces the over fitting phenomenon.
【學(xué)位授予單位】:山東大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.41;TP183
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 李尹岑;孔祥云;楊德智;;肝臟CT圖像特征提取方法的研究及其在檢索中的應(yīng)用[J];影像技術(shù);2014年01期
2 龔雯,陳麗華,沈建國(guó);基于幾何特征的人臉正面圖像特征提取[J];現(xiàn)代計(jì)算機(jī);2005年09期
3 尚麗;陳杰;周燕;張麗;;基于非負(fù)稀疏編碼的圖像特征提取及應(yīng)用[J];蘇州市職業(yè)大學(xué)學(xué)報(bào);2007年02期
4 李雅梅;吳中福;;川南石刻圖像特征提取方法研究[J];計(jì)算機(jī)科學(xué);2008年06期
5 翟俊海;趙文秀;王熙照;;圖像特征提取研究[J];河北大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年01期
6 王志瑞;閆彩良;;圖像特征提取方法的綜述[J];吉首大學(xué)學(xué)報(bào)(自然科學(xué)版);2011年05期
7 白明柱;楊立森;阿木古楞;;圖像特征提取的研究進(jìn)展[J];科技創(chuàng)新與應(yīng)用;2013年04期
8 劉鳳連;汪日偉;程俊;康絹鵬;;圖像特征提取中領(lǐng)域尺寸和本征維數(shù)的自動(dòng)選擇算法[J];光電子.激光;2013年12期
9 范羚,吳小培,龍飛,張道信,郭曉靜;基于獨(dú)立分量分析的圖像特征提取及去噪[J];計(jì)算機(jī)工程與應(yīng)用;2003年09期
10 林明星,王曉華,管志光,丁鳳華,趙永瑞;基于差分碼的圖像特征提取方法研究[J];儀器儀表學(xué)報(bào);2004年S2期
相關(guān)會(huì)議論文 前9條
1 林明星;王曉華;管志光;丁鳳華;趙永瑞;;基于差分碼的圖像特征提取方法研究[A];中國(guó)儀器儀表學(xué)會(huì)第六屆青年學(xué)術(shù)會(huì)議論文集[C];2004年
2 朱紅娟;蘇立軍;李芬華;陳麗;;基于小波包的超聲圖像特征提取[A];第七屆全國(guó)信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2009年
3 張永平;何仲昆;蘇日娜;樊少菁;;基于非線性投影的圖像特征提取與分類[A];2009年中國(guó)智能自動(dòng)化會(huì)議論文集(第三分冊(cè))[C];2009年
4 王曉偉;石林鎖;成浩;;基于獨(dú)立分量分析的圖像特征提取[A];第十七屆全國(guó)測(cè)控計(jì)量?jī)x器儀表學(xué)術(shù)年會(huì)(MCMI'2007)論文集(上冊(cè))[C];2007年
5 夏慶觀;路紅;陳桂;;基于小波神經(jīng)網(wǎng)絡(luò)的零件圖像特征提取和識(shí)別[A];第三屆全國(guó)信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2005年
6 黃亞麗;劉志文;時(shí)永剛;王琳;;一種基于形狀和形變的細(xì)胞視頻圖像特征提取方法[A];2012醫(yī)療儀器與民眾健康學(xué)術(shù)研討會(huì)論文集[C];2012年
7 索芳;魏世澤;;農(nóng)田雜草圖像特征提取與識(shí)別方法的探討[A];2007年河北省電子學(xué)會(huì)、河北省計(jì)算機(jī)學(xué)會(huì)、河北省自動(dòng)化學(xué)會(huì)、河北省人工智能學(xué)會(huì)、河北省計(jì)算機(jī)輔助設(shè)計(jì)研究會(huì)、河北省軟件行業(yè)協(xié)會(huì)聯(lián)合學(xué)術(shù)年會(huì)論文集[C];2007年
8 柳林霞;陳杰;陳文頡;;自動(dòng)目標(biāo)識(shí)別技術(shù)中的圖像特征提取技術(shù)[A];第二十一屆中國(guó)控制會(huì)議論文集[C];2002年
9 羅仁澤;王汝言;冉瑞生;;二維PCA法策略及證明[A];2007北京地區(qū)高校研究生學(xué)術(shù)交流會(huì)通信與信息技術(shù)會(huì)議論文集(上冊(cè))[C];2008年
相關(guān)博士學(xué)位論文 前10條
1 黃晟;圖像特征提取與分類超圖的學(xué)習(xí)算法研究[D];重慶大學(xué);2015年
2 劉茜;彩色人臉圖像特征提取方法研究[D];南京郵電大學(xué);2015年
3 王維剛;基于時(shí)頻圖像識(shí)別的旋轉(zhuǎn)機(jī)械多特征融合故障診斷方法研究[D];哈爾濱工業(yè)大學(xué);2016年
4 劉淑琴;圖像特征提取方法及其應(yīng)用研究[D];西北大學(xué);2016年
5 錢(qián)建軍;人臉圖像特征提取和分類的若干方法研究[D];南京理工大學(xué);2014年
6 施展;圖像特征提取與識(shí)別的跡空間投影方法研究[D];華南理工大學(xué);2012年
7 伍爵博;基于云模型與數(shù)據(jù)場(chǎng)的圖像特征提取研究[D];武漢大學(xué);2010年
8 湯德俊;人臉識(shí)別中圖像特征提取與匹配技術(shù)研究[D];大連海事大學(xué);2013年
9 李勇智;圖像特征提取方法及其在人臉識(shí)別中的應(yīng)用[D];南京理工大學(xué);2009年
10 劉高峰;極化SAR圖像特征提取與分類方法研究[D];西安電子科技大學(xué);2014年
相關(guān)碩士學(xué)位論文 前10條
1 康欣;草本植物圖像特征提取與分類研究[D];東北林業(yè)大學(xué);2015年
2 初延亮;磁粉檢測(cè)裂紋圖像特征提取方法研究及實(shí)現(xiàn)[D];西南科技大學(xué);2015年
3 王曉曉;基于拓?fù)浣Y(jié)構(gòu)的人臉圖像特征提取及識(shí)別研究[D];青島科技大學(xué);2015年
4 孫洪飛;基于小波變換的圖像特征提取方法研究[D];南京郵電大學(xué);2015年
5 馬利興;基于圖像特征提取的風(fēng)電傳動(dòng)機(jī)械故障診斷技術(shù)研究[D];北京信息科技大學(xué);2015年
6 張軼丞;基于視覺(jué)詞袋的Visual-map圖像特征提取與分類算法[D];哈爾濱工業(yè)大學(xué);2016年
7 姜媛;極化SAR圖像特征提取與分類方法研究[D];電子科技大學(xué);2016年
8 陳錦;基于時(shí)頻分析方法的單細(xì)胞圖像特征提取及識(shí)別方法研究[D];廣西師范大學(xué);2016年
9 程安鳳;基于人臉識(shí)別的圖像特征提取研究與實(shí)現(xiàn)[D];江西農(nóng)業(yè)大學(xué);2016年
10 何德魯;基于時(shí)頻圖像特征提取的旋轉(zhuǎn)機(jī)械故障診斷研究[D];大連理工大學(xué);2016年
,本文編號(hào):1592323
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/1592323.html