基于特征學(xué)習(xí)的RGB-D目標(biāo)識(shí)別算法研究
本文選題:目標(biāo)識(shí)別 + 深度學(xué)習(xí); 參考:《華中科技大學(xué)》2016年碩士論文
【摘要】:近幾年隨著傳感器技術(shù)的發(fā)展(微軟的Kinect,Intel RealSense 3D等),彩色和深度圖像(RGB-D)可以同時(shí)獲得。那么目標(biāo)的深度數(shù)據(jù)的引入的確可以得到額外具有描述能力的信息。那么相對(duì)于傳統(tǒng)的基于RGB的目標(biāo)識(shí)別范例,如何更好的使用RGB-D的信息來進(jìn)行目標(biāo)識(shí)別。直觀的來說,二維RGB圖像并不能獲取目標(biāo)的三維幾何特性,而深度信息的引入就帶來了克服這個(gè)問題的潛力。因此,研究有效的、較強(qiáng)表達(dá)能力的RGB-D目標(biāo)識(shí)別算法具有重要的理論意義和實(shí)用價(jià)值。為了有效的利用深度圖像的三維幾何信息并結(jié)合彩色二維結(jié)構(gòu)信息,即從RGBD圖像中獲取具有較強(qiáng)表達(dá)能力的特征,本文旨在研究性能優(yōu)異的RGB-D目標(biāo)識(shí)別算法。為此,本文提出了兩種基于特征學(xué)習(xí)RGB-D目標(biāo)識(shí)別算法并取得了比較良好的實(shí)驗(yàn)效果。論文的主要內(nèi)容如下:首先,針對(duì)標(biāo)準(zhǔn)的多模態(tài)輸入的RGB-D目標(biāo)識(shí)別任務(wù),本文提出了一種基于深層卷積神經(jīng)網(wǎng)絡(luò)與特征編碼的混合結(jié)構(gòu)的RGB-D目標(biāo)識(shí)別算法。利用深層卷積神經(jīng)網(wǎng)絡(luò)對(duì)于彩色模態(tài)的數(shù)據(jù)利用深層卷積神經(jīng)網(wǎng)絡(luò)提取高級(jí)的特征表達(dá)。對(duì)于深度圖像利用改進(jìn)的HONV特征描述子作為底層特征描述并進(jìn)行Fisher Vector編碼以增強(qiáng)特征描述?傮w的特征由各個(gè)模態(tài)的特征級(jí)聯(lián)得到并利用線性支撐向量機(jī)作為分類器,在通用RGB-D物體數(shù)據(jù)集上取得了最優(yōu)的識(shí)別性能。其次,本文研究以無監(jiān)督的方式為RGB-D圖像提取表達(dá)能力強(qiáng)的特征,提出了基于多視角無監(jiān)督學(xué)習(xí)的RGB-D目標(biāo)識(shí)別算法。對(duì)于給定的一幀RGB-D圖像數(shù)據(jù),利用多視角數(shù)據(jù)表達(dá)將其轉(zhuǎn)換為不用“視角”的數(shù)據(jù)形式。對(duì)于每個(gè)視角的數(shù)據(jù)送入我們提出的無監(jiān)督特征學(xué)習(xí)算法(卷積匹配跟蹤)進(jìn)行特征提取。在公共數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果表明本文算法中采用的每個(gè)視角數(shù)據(jù)之間的互補(bǔ)特性以及提出的算法的有效性。
[Abstract]:In recent years, with the development of sensor technology (Microsoft's Kinect, Intel RealSense 3D, etc.), color and depth images (RGB-D) can be obtained at the same time. Then the introduction of the target depth data can indeed obtain additional descriptive information. Then, compared to the traditional target recognition paradigm based on RGB, how to better use RGB-D Information is used for target recognition. The two-dimensional RGB image can not obtain the three-dimensional geometric characteristics of the target, and the introduction of the depth information brings the potential to overcome this problem. Therefore, the study of the effective and strong expressive RGB-D target recognition algorithm has important theoretical significance and practical value. The three-dimensional geometric information of the deep image and the color two-dimensional structure information, that is, obtain the strong expressive features from the RGBD image. This paper aims to study the RGB-D target recognition algorithm with excellent performance. In this paper, two target recognition algorithms based on feature learning based on RGB-D are proposed and good experimental results are obtained. The main contents are as follows: firstly, a RGB-D target recognition algorithm based on the mixed structure of deep convolution neural network and feature coding is proposed for the standard multimodal input RGB-D target recognition task, and the advanced convolution neural network is used to extract advanced special features of the color mode data using the deep convolution neural network. The improved HONV feature descriptor is used as the underlying feature description and Fisher Vector coding to enhance the feature description. The overall feature is cascaded by the characteristics of various modes and is used as a classifier by linear support vector machines, and the optimal recognition performance is obtained on the general RGB-D object data set. At the same time, this paper presents a RGB-D target recognition algorithm based on multi view unsupervised learning in unsupervised RGB-D image extraction. For a given frame of RGB-D image data, it is converted into a data form without "visual angle" by multi view data expression. The data for each view is sent to me. The unsupervised feature learning algorithm (convolution matching tracking) is proposed for feature extraction. The experimental results on the public dataset show the complementary characteristics of each view data used in the algorithm and the effectiveness of the proposed algorithm.
【學(xué)位授予單位】:華中科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類號(hào)】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 何峻,盧再奇,付強(qiáng);假設(shè)檢驗(yàn)方法在目標(biāo)識(shí)別算法評(píng)估中的應(yīng)用[J];雷達(dá)與對(duì)抗;2004年02期
2 徐小琴;;多傳感器數(shù)據(jù)融合目標(biāo)識(shí)別算法綜述[J];紅外與激光工程;2006年S4期
3 林思明;;運(yùn)動(dòng)目標(biāo)識(shí)別算法研究[J];西北電訊工程學(xué)院學(xué)報(bào);1985年04期
4 王旭輝;劉云猛;裴浩東;;基于嵌入式圖像處理平臺(tái)的實(shí)時(shí)多目標(biāo)識(shí)別算法[J];科學(xué)技術(shù)與工程;2014年03期
5 朱峰,竇麗華,楊國勝,陳文頡;基于異類傳感器的戰(zhàn)場運(yùn)動(dòng)目標(biāo)識(shí)別算法[J];北京理工大學(xué)學(xué)報(bào);2002年03期
6 孔剛,張啟衡,許俊平;一種復(fù)雜背景下運(yùn)動(dòng)擴(kuò)展目標(biāo)識(shí)別算法[J];儀器儀表學(xué)報(bào);2005年S1期
7 賈宇平;李亞楠;付耀文;莊釗文;;一種基于灰色定權(quán)聚類的決策層融合目標(biāo)識(shí)別算法[J];電子與信息學(xué)報(bào);2008年02期
8 熊艷,,張桂林,彭嘉雄;自動(dòng)目標(biāo)識(shí)別算法性能評(píng)價(jià)的一種方法[J];自動(dòng)化學(xué)報(bào);1996年02期
9 陳喜;陳浩;;針對(duì)潛望鏡的艦船目標(biāo)識(shí)別算法的研究[J];微計(jì)算機(jī)信息;2007年01期
10 杜方鍵;楊宏暉;;兩種半監(jiān)督多類水下目標(biāo)識(shí)別算法的比較[J];聲學(xué)技術(shù);2014年01期
相關(guān)會(huì)議論文 前5條
1 徐小琴;;多傳感器數(shù)據(jù)融合目標(biāo)識(shí)別算法綜述[A];2006年全國光電技術(shù)學(xué)術(shù)交流會(huì)會(huì)議文集(D 光電信息處理技術(shù)專題)[C];2006年
2 孔剛;張啟衡;許俊平;;一種復(fù)雜背景下運(yùn)動(dòng)擴(kuò)展目標(biāo)識(shí)別算法[A];第三屆全國信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2005年
3 常青;;分形特征目標(biāo)識(shí)別算法[A];2005年中國智能自動(dòng)化會(huì)議論文集[C];2005年
4 王明芬;李翠華;;基于形狀外觀的海面目標(biāo)識(shí)別算法[A];第十四屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年
5 王偉明;;一種使用并行黑板模型仿真系統(tǒng)實(shí)現(xiàn)的基于知識(shí)的圖象目標(biāo)識(shí)別算法[A];'99系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)交流會(huì)論文集[C];1999年
相關(guān)博士學(xué)位論文 前10條
1 張抒;可視目標(biāo)檢測與分割關(guān)鍵技術(shù)研究[D];電子科技大學(xué);2015年
2 徐培;基于少量樣本的快速目標(biāo)檢測與識(shí)別[D];電子科技大學(xué);2014年
3 竇建方;視頻圖像處理中的關(guān)鍵技術(shù)研究[D];上海交通大學(xué);2014年
4 劉明;基于流形學(xué)習(xí)與稀疏描述的SAR目標(biāo)識(shí)別算法研究[D];西安電子科技大學(xué);2015年
5 李大偉;固定翼無人機(jī)地面車輛目標(biāo)自動(dòng)檢測與跟蹤[D];中國科學(xué)院國家空間科學(xué)中心;2017年
6 喻曉源;基于特征學(xué)習(xí)的目標(biāo)檢測、跟蹤、識(shí)別算法研究[D];華中科技大學(xué);2014年
7 于加其;基于激光成像雷達(dá)距離像的地面目標(biāo)識(shí)別算法研究[D];北京理工大學(xué);2015年
8 嚴(yán)忠貞;內(nèi)河在航船舶動(dòng)態(tài)跟蹤和航跡融合方法研究[D];武漢理工大學(xué);2013年
9 張兵;光學(xué)圖像末制導(dǎo)中的點(diǎn)目標(biāo)檢測與識(shí)別算法研究[D];國防科學(xué)技術(shù)大學(xué);2005年
10 汪洋;極化合成孔徑雷達(dá)圖像處理及其應(yīng)用研究[D];安徽大學(xué);2007年
相關(guān)碩士學(xué)位論文 前10條
1 韓衛(wèi)潔;入侵報(bào)警系統(tǒng)中振動(dòng)源的目標(biāo)識(shí)別算法研究[D];長安大學(xué);2015年
2 曾誠宇;基于時(shí)序光度信號(hào)的目標(biāo)衛(wèi)星狀態(tài)特性估計(jì)[D];哈爾濱工業(yè)大學(xué);2015年
3 閆曉敏;智能監(jiān)控視頻中的目標(biāo)檢測、識(shí)別與跟蹤算法研究[D];電子科技大學(xué);2015年
4 黃浩;雙波段紅外成像目標(biāo)檢測與識(shí)別方法研究[D];國防科學(xué)技術(shù)大學(xué);2013年
5 曹昊然;基于LLE與HMM的飛機(jī)序列目標(biāo)識(shí)別算法研究[D];東南大學(xué);2015年
6 季康;基于多分類器融合的多視點(diǎn)飛機(jī)目標(biāo)識(shí)別算法研究[D];南昌航空大學(xué);2016年
7 宮世杰;視頻監(jiān)控中基于ICP算法的多目標(biāo)跟蹤技術(shù)研究與實(shí)現(xiàn)[D];山東大學(xué);2016年
8 周小龍;具有旋轉(zhuǎn)與尺度不變性的多目標(biāo)識(shí)別算法研究與應(yīng)用[D];暨南大學(xué);2016年
9 姜化冰;探地雷達(dá)地下空洞目標(biāo)探測研究[D];哈爾濱工業(yè)大學(xué);2016年
10 丁文靜;多傳感器信息融合目標(biāo)識(shí)別算法研究[D];江南大學(xué);2016年
本文編號(hào):1826152
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1826152.html