基于雙目視覺的移動機器人跟蹤技術(shù)研究
本文關(guān)鍵詞:基于雙目視覺的移動機器人跟蹤技術(shù)研究,由筆耕文化傳播整理發(fā)布。
【摘要】:本文將集中討論安裝有雙目視覺系統(tǒng)的MT-AR移動機器人的跟蹤系統(tǒng)設(shè)計與實現(xiàn),目的是使得機器人能在正常環(huán)境下對跟蹤目標(biāo)物進行跟蹤并作出正確的運動反饋。在研究機器人內(nèi)部魯棒性跟蹤算法基礎(chǔ)上,課題將對安裝雙目視覺系統(tǒng)的移動機器人跟蹤與運動控制展開研究與討論。與單目視覺移動機器人跟蹤系統(tǒng)不同,課題使用了一種基于立體視覺的機器人跟蹤平臺。機器人內(nèi)部跟蹤算法使用了一種半監(jiān)督學(xué)習(xí)模型,利用采樣樣本的重疊率先驗信息,改進了傳統(tǒng)的多實例學(xué)習(xí)跟蹤算法。其中多實例學(xué)習(xí)中包模型判別函數(shù)直接在實例水平使用Fisher線性判別函數(shù)構(gòu)建。為了增強機器人實驗中跟蹤魯棒性,機器人跟蹤模塊使用了目標(biāo)回找機制,在目標(biāo)物突然消失場景中仍能重新找回丟失目標(biāo)。傳統(tǒng)的“基于檢測來跟蹤”的算法使用在線分類器來跟蹤目標(biāo),由于采用的是自學(xué)習(xí)過程,跟蹤過程中目標(biāo)跟蹤失敗分類器會很容易退化。針對此問題,本文的機器人內(nèi)部算法使用了一種改進的基于半監(jiān)督學(xué)習(xí)的多示例學(xué)習(xí)跟蹤(MILFLD)。首先,課題以采樣樣本與跟蹤目標(biāo)的重疊率信息為先驗構(gòu)建半監(jiān)督學(xué)習(xí)模型,這種半監(jiān)督學(xué)習(xí)模型結(jié)合了有標(biāo)簽與無標(biāo)簽數(shù)據(jù),能有效克服傳統(tǒng)的基于檢測來跟蹤的算法中目標(biāo)漂移問題。其次,多示例學(xué)習(xí)中包模型判別函數(shù)的構(gòu)建利用了Fisher線性判別函數(shù),直接在實例水平選取最優(yōu)分類器。最后,本文從梯度下降的視角來優(yōu)化分類器的選取,每一次弱分類器的選取都以損失函數(shù)減少最多為條件,這樣可以從抑制誤差傳播角度看待分類器的選取,當(dāng)前幀訓(xùn)練得到的強分類器對于下一幀同樣具有判別性。為了驗證機器人內(nèi)部跟蹤算法的跟蹤精度與魯棒性,課題在不同場景下對MILFLD算法做出10組驗證性實驗。實驗結(jié)果表明本文算法能有效地應(yīng)對各種現(xiàn)實場景下運動目標(biāo)的跟蹤,在尺度與光照變化、快速運動、存在目標(biāo)相似物以及部分遮擋情況時,都具備非常良好的跟蹤穩(wěn)定性與魯棒性。為了驗證機器人在實際環(huán)境中的跟蹤精度好壞,課題在現(xiàn)實場景中對機器人運動跟蹤同樣做了幾組實驗。由實際場景中雙目視覺機器人跟蹤結(jié)果可以看出,本文提出的算法能有效解決移動機器人目標(biāo)跟蹤中的目標(biāo)物快速運動、目標(biāo)物發(fā)生遮擋、目標(biāo)物突然消失以及光照變化等問題。
【關(guān)鍵詞】:移動機器人 雙目視覺系統(tǒng) 視頻跟蹤 多示例學(xué)習(xí) 半監(jiān)督學(xué)習(xí)
【學(xué)位授予單位】:浙江理工大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP242
【目錄】:
- 摘要4-5
- ABSTRACT5-9
- 第一章 緒論9-18
- 1.1 課題背景和意義9-10
- 1.2 國內(nèi)外研究現(xiàn)狀10-14
- 1.2.1 視覺機器人研究現(xiàn)狀10-11
- 1.2.2 立體視覺的研究現(xiàn)狀11-12
- 1.2.3 目標(biāo)跟蹤研究現(xiàn)狀12-14
- 1.3 論文的主要研究工作與結(jié)構(gòu)安排14-18
- 1.3.1 研究內(nèi)容14-17
- 1.3.2 后續(xù)章節(jié)安排17-18
- 第二章 雙目立體視覺系統(tǒng)18-26
- 2.1 攝像機的成像模型18-20
- 2.2 立體視覺模型20-21
- 2.3 攝像機標(biāo)定模型21-25
- 2.3.1 圖像坐標(biāo)系、攝像機坐標(biāo)系和世界坐標(biāo)系22-23
- 2.3.2 本文使用的攝像機標(biāo)定模型23-25
- 2.4 本章小結(jié)25-26
- 第三章 移動機器人視頻跟蹤系統(tǒng)26-35
- 3.1 視頻跟蹤理論基礎(chǔ)26-29
- 3.1.1 多示例學(xué)習(xí)26-27
- 3.1.2 半監(jiān)督學(xué)習(xí)27-29
- 3.2 圖像的特征表示29-31
- 3.2.1 基于稀疏表示的類Haar特征29-30
- 3.2.2 弱分類器的構(gòu)建與更新30-31
- 3.3 視頻跟蹤系統(tǒng)的整體構(gòu)建流程31-33
- 3.3.1 結(jié)合先驗知識的多示例學(xué)習(xí)跟蹤31-32
- 3.3.2 目標(biāo)回找機制32-33
- 3.4 本章小結(jié)33-35
- 第四章 結(jié)合先驗知識的多示例學(xué)習(xí)跟蹤35-53
- 4.1 樣本重疊率先驗信息35-37
- 4.2 在線分類器的構(gòu)建37-41
- 4.2.1 Fisher線性判別模型37-39
- 4.2.2 梯度下降模型39-41
- 4.3 算法總體流程41-42
- 4.4 實驗42-51
- 4.4.1 初始化參數(shù)配置43
- 4.4.2 實驗結(jié)果和分析43-51
- 4.5 本章小結(jié)51-53
- 第五章 雙目視覺移動機器人的目標(biāo)跟蹤53-66
- 5.1 移動機器人中的立體視覺系統(tǒng)53-55
- 5.1.1 Bumblebee2雙目攝像機53-54
- 5.1.2 圖像坐標(biāo)與像素坐標(biāo)54-55
- 5.2 雙目視覺移動機器人的目標(biāo)跟蹤55-59
- 5.2.1 機器人的配置參數(shù)55-56
- 5.2.2 運動跟蹤的實現(xiàn)過程56-59
- 5.3 移動機器人目標(biāo)跟蹤與定位59-65
- 5.3.1 實際場景中的移動機器人目標(biāo)跟蹤59-63
- 5.3.2 目標(biāo)物的定位63-65
- 5.4 本章小結(jié)65-66
- 第六章 總結(jié)與展望66-68
- 參考文獻68-73
- 致謝73-74
- 攻讀學(xué)位期間的研究成果74
【相似文獻】
中國期刊全文數(shù)據(jù)庫 前10條
1 李海軍;;基于雙目視覺的自動跟蹤系統(tǒng)應(yīng)用[J];火力與指揮控制;2010年01期
2 胡天翔;鄭加強;周宏平;;基于雙目視覺的樹木圖像測距方法[J];農(nóng)業(yè)機械學(xué)報;2010年11期
3 李夢和;林川;潘盛輝;;基于雙目視覺的礦井機車定位方法[J];煤礦機械;2012年04期
4 祝世平,強錫富;基于坐標(biāo)測量機的雙目視覺測距誤差分析[J];電子測量與儀器學(xué)報;2000年02期
5 汪倩倩;申忠宇;張亮;;基于雙目視覺模型的彩色目標(biāo)實時檢測與定位[J];南京師范大學(xué)學(xué)報(工程技術(shù)版);2008年01期
6 潘浩;趙宇明;;基于雙目視覺的客流監(jiān)測系統(tǒng)[J];微計算機信息;2009年33期
7 單寶華;申宇;;基于雙目視覺的拉索模型自由振動監(jiān)測試驗[J];土木工程學(xué)報;2012年11期
8 紀(jì)超;王慶;;基于雙目視覺的自主空中加油算法研究與仿真[J];系統(tǒng)仿真學(xué)報;2013年06期
9 岳亮;;一種基于雙目視覺的安全車距測量方法[J];電視技術(shù);2013年15期
10 許明杰,王洪榮;雙目視覺中恢復(fù)模型點的方法──公垂線法[J];指揮技術(shù)學(xué)院學(xué)報;1997年02期
中國重要會議論文全文數(shù)據(jù)庫 前7條
1 孟環(huán)標(biāo);楊興強;李雪梅;;基于雙目視覺的測量系統(tǒng)誤差分析[A];第五屆全國幾何設(shè)計與計算學(xué)術(shù)會議論文集[C];2011年
2 朱宗磊;殷福亮;;基于雙目視覺的目標(biāo)檢測與跟蹤系統(tǒng)[A];2010年通信理論與信號處理學(xué)術(shù)年會論文集[C];2010年
3 王榮本;張明恒;毛曉燕;;雙目視覺技術(shù)在環(huán)境探測中的應(yīng)用[A];中國宇航學(xué)會深空探測技術(shù)專業(yè)委員會第二屆學(xué)術(shù)會議論文集[C];2005年
4 張靜;李琳;劉曉平;;基于雙目視覺的虛擬手的實現(xiàn)[A];計算機技術(shù)與應(yīng)用進展——全國第17屆計算機科學(xué)與技術(shù)應(yīng)用(CACIS)學(xué)術(shù)會議論文集(上冊)[C];2006年
5 吳濤;劉欣;;基于單雙目視覺信息融合的障礙檢測方法[A];中國宇航學(xué)會深空探測技術(shù)專業(yè)委員會第二屆學(xué)術(shù)會議論文集[C];2005年
6 孫明;;基于雙目視覺的移動機器人避障研究[A];中國農(nóng)業(yè)工程學(xué)會2011年學(xué)術(shù)年會論文集[C];2011年
7 杜英魁;韓建達;唐延?xùn)|;;基于雙目重建不確定性的動態(tài)特征濾除[A];第七屆全國信息獲取與處理學(xué)術(shù)會議論文集[C];2009年
中國博士學(xué)位論文全文數(shù)據(jù)庫 前2條
1 陳學(xué)惠;基于移動機器人雙目視覺的井下三維場景重建方法研究[D];中國礦業(yè)大學(xué)(北京);2012年
2 陳希章;基于雙目視覺的弧焊機器人焊縫三維信息獲取研究[D];上海交通大學(xué);2007年
中國碩士學(xué)位論文全文數(shù)據(jù)庫 前10條
1 麥樹彬;基于雙目視覺的色盲輔助技術(shù)的研究[D];華南理工大學(xué);2015年
2 徐宏;基于雙目視覺和稀疏表示的智能倒車控制研究[D];西南交通大學(xué);2015年
3 李輝;田間機器人的雙目視覺系統(tǒng)誤差分析研究[D];內(nèi)蒙古大學(xué);2015年
4 逯沛龍;基于FPGA的雙目視覺圖像預(yù)處理系統(tǒng)設(shè)計與實現(xiàn)[D];南京理工大學(xué);2015年
5 王婷婷;基于GPU的雙目視覺運動目標(biāo)檢測跟蹤算法研究[D];哈爾濱工業(yè)大學(xué);2015年
6 王昌盛;基于ORB算法的雙目視覺測量研究[D];哈爾濱工業(yè)大學(xué);2015年
7 趙程;具有圓面特征的非合作目標(biāo)雙目視覺位姿測量[D];哈爾濱工業(yè)大學(xué);2015年
8 路研研;在軌航天器雙目視覺圖像采集與處理系統(tǒng)研制[D];哈爾濱工業(yè)大學(xué);2015年
9 曹之樂;基于雙目視覺的焦點定位方法研究與應(yīng)用[D];重慶理工大學(xué);2015年
10 王洪偉;基于雙目視覺的紅綠燈路口安全距離預(yù)警研究[D];安徽工程大學(xué);2015年
本文關(guān)鍵詞:基于雙目視覺的移動機器人跟蹤技術(shù)研究,,由筆耕文化傳播整理發(fā)布。
本文編號:353730
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/353730.html