基于機器學(xué)習(xí)的多傳感器目標識別技術(shù)研究
本文關(guān)鍵詞:基于機器學(xué)習(xí)的多傳感器目標識別技術(shù)研究
更多相關(guān)文章: 目標識別 詞袋模型 SIFT k-means算法
【摘要】:本文研究了基于機器學(xué)習(xí)的多傳感器目標識別技術(shù),針對能夠?qū)IFT高維特征向量表示成低維特征向量的"詞袋"模型的構(gòu)建進行了改進,并將其應(yīng)用到了全局特征和局部特征結(jié)合以及紅外和可見光圖像融合的目標識別中。首先,研究了基于全局特征的目標識別。對支持向量機分類的原理進行了研究,使用一對一法構(gòu)建了基于支持向量機的多分類器,提取了可見光圖像的LBP特征之后,使用支持向量機對其進行分類識別時出現(xiàn)了樣本得不到分類識別的情況。對此提出了兩個改進策略,通過實驗對比說明了兩個策略各自的特點。其次,研究了基于局部特征的目標識別。對使用k-means聚類算法的"詞袋"模型進行了改進,在已有的k-means聚類算法的研究基礎(chǔ)之上做出了相應(yīng)的改進工作,通過使用UCI數(shù)據(jù)集對改進后的算法進行實驗,結(jié)果證明了改進后的算法在聚類效果上要優(yōu)于改進前的聚類效果。使用改進后的聚類算法構(gòu)建了基于SIFT的"詞袋"模型并進行了實驗,結(jié)果證明了改進后的算法可以提高目標的識別率。最后,分別研究了基于特征級和決策級的目標識別。使用可見光圖像進行了在決策級上局部特征和全局特征相結(jié)合的識別實驗,融合了 SIFT特征和LBP特征,實驗過程中提出了兩種結(jié)合方法,結(jié)果證明了融合兩種特征可以提高目標識別率。使用紅外和可見光圖像進行了融合兩種傳感器特征的實驗,在兩類圖像的樣本數(shù)量不對等的前提下,結(jié)果證明了相比于單個傳感器,使用兩種傳感器更能夠提高對目標的識別率。
【關(guān)鍵詞】:目標識別 "詞袋"模型 SIFT k-means算法
【學(xué)位授予單位】:沈陽理工大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP391.41;TP181
【目錄】:
- 摘要6-7
- Abstract7-10
- 第1章 緒論10-16
- 1.1 課題研究的背景和意義10-11
- 1.2 國內(nèi)外研究現(xiàn)狀11-15
- 1.2.1 圖像特征提取算法和表示的國內(nèi)外研究現(xiàn)狀11-13
- 1.2.2 分類器的研究現(xiàn)狀13-14
- 1.2.3 多傳感器應(yīng)用的研究現(xiàn)狀14-15
- 1.3 文章的主要研究工作與內(nèi)容安排15-16
- 第2章 基于全局圖像特征的目標識別16-36
- 2.1 LBP紋理特征16-20
- 2.1.1 LBP算子16-19
- 2.1.2 LBP算子的旋轉(zhuǎn)不變性19
- 2.1.3 LBP算子的統(tǒng)一模式19-20
- 2.1.4 LBP直方圖20
- 2.2 支持向量機分類原理20-28
- 2.2.1 線性支持向量機與間隔最大化20-24
- 2.2.1.1 線性可分支持向量機與硬間隔最大化21-23
- 2.2.1.2 線性支持向量機與軟間隔最大化23-24
- 2.2.2 非線性支持向量機與核函數(shù)24-26
- 2.2.3 支持向量機的應(yīng)用與拓展26-28
- 2.3 實驗結(jié)果與分析28-34
- 2.4 本章小結(jié)34-36
- 第3章 基于局部圖像特征的目標識別36-68
- 3.1 SIFT特征描述子36-47
- 3.1.1 圖像的多尺度表示37-38
- 3.1.2 只度空間極值檢測38-42
- 3.1.2.1 構(gòu)建高斯金字塔39-40
- 3.1.2.2 構(gòu)建高斯差分金字塔40-42
- 3.1.3 特征點精確定位42-44
- 3.1.4 極值點的方向分配44-45
- 3.1.5 特征點描述子的生成45-47
- 3.2 "詞袋"模型的構(gòu)建47-50
- 3.3 k-means聚類算法與實驗分析50-58
- 3.3.1 基于高密度點分布的k-means算法50-52
- 3.3.2 改進的k-means初始聚類中心選擇的算法52-54
- 3.3.3 k-means算法聚類實驗結(jié)果與分析54-58
- 3.4 基于優(yōu)化的k-means目標識別算法實驗與分析58-66
- 3.5 本章小結(jié)66-68
- 第4章 基于多傳感器的目標識別68-82
- 4.1 全局與局部圖像特征相結(jié)合的目標識別68
- 4.2 實驗結(jié)果與分析68-74
- 4.3 多傳感器圖像融合方式74-75
- 4.3.1 像素級圖像融合74
- 4.3.2 特征級圖像融合74-75
- 4.3.3 決策級圖像融合75
- 4.4 實驗結(jié)果與分析75-80
- 4.4.1 基于SIFT的紅外和可見光圖像的融合實驗76-77
- 4.4.2 基于LBP紋理特征的紅外與可見光圖像的融合實驗77-80
- 4.5 本章小結(jié)80-82
- 結(jié)論82-84
- 參考文獻84-88
- 攻讀碩士學(xué)位期間發(fā)表的論文和獲得的科研成果88-89
- 致謝89
【參考文獻】
中國期刊全文數(shù)據(jù)庫 前8條
1 顏雪軍;趙春霞;袁夏;;2DPCA-SIFT:一種有效的局部特征描述方法[J];自動化學(xué)報;2014年04期
2 童濤;楊桄;孟強強;孫嘉成;葉怡;陳曉榕;;基于邊緣特征的多傳感器圖像融合算法[J];紅外與激光工程;2014年01期
3 童濤;楊桄;李昕;葉怡;王壽彪;;基于D-S證據(jù)理論的多特征融合SAR圖像目標識別方法[J];國土資源遙感;2013年02期
4 蔣曉瑜;梁浩聰;王加;張旭帆;;目標識別中多傳感器信息融合算法比較[J];計算機系統(tǒng)應(yīng)用;2013年04期
5 戴金波;趙宏偉;劉君玲;馮嘉;;一種針對于描述子的SIFT簡化方法[J];儀器儀表學(xué)報;2012年10期
6 仝雪姣;孟凡榮;王志曉;;對k-means初始聚類中心的優(yōu)化[J];計算機工程與設(shè)計;2011年08期
7 韓凌波;王強;蔣正鋒;郝志強;;一種改進的k-means初始聚類中心選取算法[J];計算機工程與應(yīng)用;2010年17期
8 周世兵;徐振源;唐旭清;;新的K-均值算法最佳聚類數(shù)確定方法[J];計算機工程與應(yīng)用;2010年16期
中國碩士學(xué)位論文全文數(shù)據(jù)庫 前9條
1 柳歡歡;基于特征融合的目標識別研究[D];浙江工業(yè)大學(xué);2014年
2 謝振南;多傳感器信息融合技術(shù)研究[D];廣東工業(yè)大學(xué);2013年
3 王東明;基于特征級融合的目標識別方法研究[D];沈陽理工大學(xué);2013年
4 孫思佳;基于可見光與紅外圖像融合的目標識別研究[D];南京航空航天大學(xué);2012年
5 唐春益;AdaBoost算法及其在目標識別中的應(yīng)用研究[D];南昌航空大學(xué);2012年
6 王瑩;基于BoW模型的圖像分類方法研究[D];哈爾濱工程大學(xué);2012年
7 劉麗霞;圖像紋理特征研究和比較[D];北京郵電大學(xué);2011年
8 李樹娟;基于LBP特征的人臉表情分析[D];中國石油大學(xué);2010年
9 馮嘉;SIFT算法的研究和改進[D];吉林大學(xué);2010年
,本文編號:831467
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/831467.html