基于雙目視覺的移動(dòng)機(jī)器人跟蹤技術(shù)研究
本文關(guān)鍵詞:基于雙目視覺的移動(dòng)機(jī)器人跟蹤技術(shù)研究,由筆耕文化傳播整理發(fā)布。
【摘要】:本文將集中討論安裝有雙目視覺系統(tǒng)的MT-AR移動(dòng)機(jī)器人的跟蹤系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn),目的是使得機(jī)器人能在正常環(huán)境下對(duì)跟蹤目標(biāo)物進(jìn)行跟蹤并作出正確的運(yùn)動(dòng)反饋。在研究機(jī)器人內(nèi)部魯棒性跟蹤算法基礎(chǔ)上,課題將對(duì)安裝雙目視覺系統(tǒng)的移動(dòng)機(jī)器人跟蹤與運(yùn)動(dòng)控制展開研究與討論。與單目視覺移動(dòng)機(jī)器人跟蹤系統(tǒng)不同,課題使用了一種基于立體視覺的機(jī)器人跟蹤平臺(tái)。機(jī)器人內(nèi)部跟蹤算法使用了一種半監(jiān)督學(xué)習(xí)模型,利用采樣樣本的重疊率先驗(yàn)信息,改進(jìn)了傳統(tǒng)的多實(shí)例學(xué)習(xí)跟蹤算法。其中多實(shí)例學(xué)習(xí)中包模型判別函數(shù)直接在實(shí)例水平使用Fisher線性判別函數(shù)構(gòu)建。為了增強(qiáng)機(jī)器人實(shí)驗(yàn)中跟蹤魯棒性,機(jī)器人跟蹤模塊使用了目標(biāo)回找機(jī)制,在目標(biāo)物突然消失場(chǎng)景中仍能重新找回丟失目標(biāo)。傳統(tǒng)的“基于檢測(cè)來跟蹤”的算法使用在線分類器來跟蹤目標(biāo),由于采用的是自學(xué)習(xí)過程,跟蹤過程中目標(biāo)跟蹤失敗分類器會(huì)很容易退化。針對(duì)此問題,本文的機(jī)器人內(nèi)部算法使用了一種改進(jìn)的基于半監(jiān)督學(xué)習(xí)的多示例學(xué)習(xí)跟蹤(MILFLD)。首先,課題以采樣樣本與跟蹤目標(biāo)的重疊率信息為先驗(yàn)構(gòu)建半監(jiān)督學(xué)習(xí)模型,這種半監(jiān)督學(xué)習(xí)模型結(jié)合了有標(biāo)簽與無標(biāo)簽數(shù)據(jù),能有效克服傳統(tǒng)的基于檢測(cè)來跟蹤的算法中目標(biāo)漂移問題。其次,多示例學(xué)習(xí)中包模型判別函數(shù)的構(gòu)建利用了Fisher線性判別函數(shù),直接在實(shí)例水平選取最優(yōu)分類器。最后,本文從梯度下降的視角來優(yōu)化分類器的選取,每一次弱分類器的選取都以損失函數(shù)減少最多為條件,這樣可以從抑制誤差傳播角度看待分類器的選取,當(dāng)前幀訓(xùn)練得到的強(qiáng)分類器對(duì)于下一幀同樣具有判別性。為了驗(yàn)證機(jī)器人內(nèi)部跟蹤算法的跟蹤精度與魯棒性,課題在不同場(chǎng)景下對(duì)MILFLD算法做出10組驗(yàn)證性實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明本文算法能有效地應(yīng)對(duì)各種現(xiàn)實(shí)場(chǎng)景下運(yùn)動(dòng)目標(biāo)的跟蹤,在尺度與光照變化、快速運(yùn)動(dòng)、存在目標(biāo)相似物以及部分遮擋情況時(shí),都具備非常良好的跟蹤穩(wěn)定性與魯棒性。為了驗(yàn)證機(jī)器人在實(shí)際環(huán)境中的跟蹤精度好壞,課題在現(xiàn)實(shí)場(chǎng)景中對(duì)機(jī)器人運(yùn)動(dòng)跟蹤同樣做了幾組實(shí)驗(yàn)。由實(shí)際場(chǎng)景中雙目視覺機(jī)器人跟蹤結(jié)果可以看出,本文提出的算法能有效解決移動(dòng)機(jī)器人目標(biāo)跟蹤中的目標(biāo)物快速運(yùn)動(dòng)、目標(biāo)物發(fā)生遮擋、目標(biāo)物突然消失以及光照變化等問題。
【關(guān)鍵詞】:移動(dòng)機(jī)器人 雙目視覺系統(tǒng) 視頻跟蹤 多示例學(xué)習(xí) 半監(jiān)督學(xué)習(xí)
【學(xué)位授予單位】:浙江理工大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類號(hào)】:TP242
【目錄】:
- 摘要4-5
- ABSTRACT5-9
- 第一章 緒論9-18
- 1.1 課題背景和意義9-10
- 1.2 國(guó)內(nèi)外研究現(xiàn)狀10-14
- 1.2.1 視覺機(jī)器人研究現(xiàn)狀10-11
- 1.2.2 立體視覺的研究現(xiàn)狀11-12
- 1.2.3 目標(biāo)跟蹤研究現(xiàn)狀12-14
- 1.3 論文的主要研究工作與結(jié)構(gòu)安排14-18
- 1.3.1 研究?jī)?nèi)容14-17
- 1.3.2 后續(xù)章節(jié)安排17-18
- 第二章 雙目立體視覺系統(tǒng)18-26
- 2.1 攝像機(jī)的成像模型18-20
- 2.2 立體視覺模型20-21
- 2.3 攝像機(jī)標(biāo)定模型21-25
- 2.3.1 圖像坐標(biāo)系、攝像機(jī)坐標(biāo)系和世界坐標(biāo)系22-23
- 2.3.2 本文使用的攝像機(jī)標(biāo)定模型23-25
- 2.4 本章小結(jié)25-26
- 第三章 移動(dòng)機(jī)器人視頻跟蹤系統(tǒng)26-35
- 3.1 視頻跟蹤理論基礎(chǔ)26-29
- 3.1.1 多示例學(xué)習(xí)26-27
- 3.1.2 半監(jiān)督學(xué)習(xí)27-29
- 3.2 圖像的特征表示29-31
- 3.2.1 基于稀疏表示的類Haar特征29-30
- 3.2.2 弱分類器的構(gòu)建與更新30-31
- 3.3 視頻跟蹤系統(tǒng)的整體構(gòu)建流程31-33
- 3.3.1 結(jié)合先驗(yàn)知識(shí)的多示例學(xué)習(xí)跟蹤31-32
- 3.3.2 目標(biāo)回找機(jī)制32-33
- 3.4 本章小結(jié)33-35
- 第四章 結(jié)合先驗(yàn)知識(shí)的多示例學(xué)習(xí)跟蹤35-53
- 4.1 樣本重疊率先驗(yàn)信息35-37
- 4.2 在線分類器的構(gòu)建37-41
- 4.2.1 Fisher線性判別模型37-39
- 4.2.2 梯度下降模型39-41
- 4.3 算法總體流程41-42
- 4.4 實(shí)驗(yàn)42-51
- 4.4.1 初始化參數(shù)配置43
- 4.4.2 實(shí)驗(yàn)結(jié)果和分析43-51
- 4.5 本章小結(jié)51-53
- 第五章 雙目視覺移動(dòng)機(jī)器人的目標(biāo)跟蹤53-66
- 5.1 移動(dòng)機(jī)器人中的立體視覺系統(tǒng)53-55
- 5.1.1 Bumblebee2雙目攝像機(jī)53-54
- 5.1.2 圖像坐標(biāo)與像素坐標(biāo)54-55
- 5.2 雙目視覺移動(dòng)機(jī)器人的目標(biāo)跟蹤55-59
- 5.2.1 機(jī)器人的配置參數(shù)55-56
- 5.2.2 運(yùn)動(dòng)跟蹤的實(shí)現(xiàn)過程56-59
- 5.3 移動(dòng)機(jī)器人目標(biāo)跟蹤與定位59-65
- 5.3.1 實(shí)際場(chǎng)景中的移動(dòng)機(jī)器人目標(biāo)跟蹤59-63
- 5.3.2 目標(biāo)物的定位63-65
- 5.4 本章小結(jié)65-66
- 第六章 總結(jié)與展望66-68
- 參考文獻(xiàn)68-73
- 致謝73-74
- 攻讀學(xué)位期間的研究成果74
【相似文獻(xiàn)】
中國(guó)期刊全文數(shù)據(jù)庫(kù) 前10條
1 李海軍;;基于雙目視覺的自動(dòng)跟蹤系統(tǒng)應(yīng)用[J];火力與指揮控制;2010年01期
2 胡天翔;鄭加強(qiáng);周宏平;;基于雙目視覺的樹木圖像測(cè)距方法[J];農(nóng)業(yè)機(jī)械學(xué)報(bào);2010年11期
3 李夢(mèng)和;林川;潘盛輝;;基于雙目視覺的礦井機(jī)車定位方法[J];煤礦機(jī)械;2012年04期
4 祝世平,強(qiáng)錫富;基于坐標(biāo)測(cè)量機(jī)的雙目視覺測(cè)距誤差分析[J];電子測(cè)量與儀器學(xué)報(bào);2000年02期
5 汪倩倩;申忠宇;張亮;;基于雙目視覺模型的彩色目標(biāo)實(shí)時(shí)檢測(cè)與定位[J];南京師范大學(xué)學(xué)報(bào)(工程技術(shù)版);2008年01期
6 潘浩;趙宇明;;基于雙目視覺的客流監(jiān)測(cè)系統(tǒng)[J];微計(jì)算機(jī)信息;2009年33期
7 單寶華;申宇;;基于雙目視覺的拉索模型自由振動(dòng)監(jiān)測(cè)試驗(yàn)[J];土木工程學(xué)報(bào);2012年11期
8 紀(jì)超;王慶;;基于雙目視覺的自主空中加油算法研究與仿真[J];系統(tǒng)仿真學(xué)報(bào);2013年06期
9 岳亮;;一種基于雙目視覺的安全車距測(cè)量方法[J];電視技術(shù);2013年15期
10 許明杰,王洪榮;雙目視覺中恢復(fù)模型點(diǎn)的方法──公垂線法[J];指揮技術(shù)學(xué)院學(xué)報(bào);1997年02期
中國(guó)重要會(huì)議論文全文數(shù)據(jù)庫(kù) 前7條
1 孟環(huán)標(biāo);楊興強(qiáng);李雪梅;;基于雙目視覺的測(cè)量系統(tǒng)誤差分析[A];第五屆全國(guó)幾何設(shè)計(jì)與計(jì)算學(xué)術(shù)會(huì)議論文集[C];2011年
2 朱宗磊;殷福亮;;基于雙目視覺的目標(biāo)檢測(cè)與跟蹤系統(tǒng)[A];2010年通信理論與信號(hào)處理學(xué)術(shù)年會(huì)論文集[C];2010年
3 王榮本;張明恒;毛曉燕;;雙目視覺技術(shù)在環(huán)境探測(cè)中的應(yīng)用[A];中國(guó)宇航學(xué)會(huì)深空探測(cè)技術(shù)專業(yè)委員會(huì)第二屆學(xué)術(shù)會(huì)議論文集[C];2005年
4 張靜;李琳;劉曉平;;基于雙目視覺的虛擬手的實(shí)現(xiàn)[A];計(jì)算機(jī)技術(shù)與應(yīng)用進(jìn)展——全國(guó)第17屆計(jì)算機(jī)科學(xué)與技術(shù)應(yīng)用(CACIS)學(xué)術(shù)會(huì)議論文集(上冊(cè))[C];2006年
5 吳濤;劉欣;;基于單雙目視覺信息融合的障礙檢測(cè)方法[A];中國(guó)宇航學(xué)會(huì)深空探測(cè)技術(shù)專業(yè)委員會(huì)第二屆學(xué)術(shù)會(huì)議論文集[C];2005年
6 孫明;;基于雙目視覺的移動(dòng)機(jī)器人避障研究[A];中國(guó)農(nóng)業(yè)工程學(xué)會(huì)2011年學(xué)術(shù)年會(huì)論文集[C];2011年
7 杜英魁;韓建達(dá);唐延?xùn)|;;基于雙目重建不確定性的動(dòng)態(tài)特征濾除[A];第七屆全國(guó)信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2009年
中國(guó)博士學(xué)位論文全文數(shù)據(jù)庫(kù) 前2條
1 陳學(xué)惠;基于移動(dòng)機(jī)器人雙目視覺的井下三維場(chǎng)景重建方法研究[D];中國(guó)礦業(yè)大學(xué)(北京);2012年
2 陳希章;基于雙目視覺的弧焊機(jī)器人焊縫三維信息獲取研究[D];上海交通大學(xué);2007年
中國(guó)碩士學(xué)位論文全文數(shù)據(jù)庫(kù) 前10條
1 麥樹彬;基于雙目視覺的色盲輔助技術(shù)的研究[D];華南理工大學(xué);2015年
2 徐宏;基于雙目視覺和稀疏表示的智能倒車控制研究[D];西南交通大學(xué);2015年
3 李輝;田間機(jī)器人的雙目視覺系統(tǒng)誤差分析研究[D];內(nèi)蒙古大學(xué);2015年
4 逯沛龍;基于FPGA的雙目視覺圖像預(yù)處理系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年
5 王婷婷;基于GPU的雙目視覺運(yùn)動(dòng)目標(biāo)檢測(cè)跟蹤算法研究[D];哈爾濱工業(yè)大學(xué);2015年
6 王昌盛;基于ORB算法的雙目視覺測(cè)量研究[D];哈爾濱工業(yè)大學(xué);2015年
7 趙程;具有圓面特征的非合作目標(biāo)雙目視覺位姿測(cè)量[D];哈爾濱工業(yè)大學(xué);2015年
8 路研研;在軌航天器雙目視覺圖像采集與處理系統(tǒng)研制[D];哈爾濱工業(yè)大學(xué);2015年
9 曹之樂;基于雙目視覺的焦點(diǎn)定位方法研究與應(yīng)用[D];重慶理工大學(xué);2015年
10 王洪偉;基于雙目視覺的紅綠燈路口安全距離預(yù)警研究[D];安徽工程大學(xué);2015年
本文關(guān)鍵詞:基于雙目視覺的移動(dòng)機(jī)器人跟蹤技術(shù)研究,,由筆耕文化傳播整理發(fā)布。
本文編號(hào):353730
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/353730.html