基于Bumblebee XB3的同時定位與地圖構(gòu)建算法研究
本文關(guān)鍵詞: SURF EKF 雙目視覺SLAM 3D信息 出處:《中國海洋大學(xué)》2015年碩士論文 論文類型:學(xué)位論文
【摘要】:準(zhǔn)確的3D場景信息在自主駕駛和移動系統(tǒng)導(dǎo)航中是非常重要的因素。由于照相機成本低而且容易使用,智能機器人通常會根據(jù)從照相機獲取的觀測信息來作出決定。周圍真實的環(huán)境是相當(dāng)復(fù)雜的,觀測也經(jīng)常有噪聲,或許還可能丟失信息。這些都使得Visual SLAM的實現(xiàn)比較困難。盡管在高速公路導(dǎo)航和簡單環(huán)境的自主導(dǎo)航獲得了成功的驗證,在未知復(fù)雜的環(huán)境下的自主導(dǎo)航仍然是個沒有解決的問題。本文研究的方法是從一系列的立體圖像中估計機器人的位姿和準(zhǔn)確的3d的環(huán)境特征。所有的數(shù)據(jù)都是來自Bumblebee XB3雙目立體照相機,照相機是安裝在智能小車的頂部。本文主要研究雙目視覺SLAM系統(tǒng),雙目視覺SLAM主要集中在機器人位姿和環(huán)境特征的3D位置及其坐標(biāo)。在估計機器人位姿時稀疏的特征被追蹤和位置估計,特征集合太稀疏而不能準(zhǔn)確的描述照相機拍攝的真實3D環(huán)境。從立體雙目圖像序列中獲取準(zhǔn)確的3D信息在計算機視覺和機器人自主導(dǎo)航中是一個核心步驟。我們運用循環(huán)SURF特征提取匹配算法來獲得粗略的匹配特征,該算法計算量小,魯棒性高。接下來運用RANSAC和對極幾何約束消除誤匹配點獲得精確穩(wěn)定的特征點。將得到的精確穩(wěn)定的特征點輸入到基于EKF的SLAM系統(tǒng)來估計機器人的運動路徑。在室外非結(jié)構(gòu)化環(huán)境下驗證了雙目視覺SLAM算法的準(zhǔn)確性和有效性。為了準(zhǔn)確描述真實環(huán)境,運用雙目視覺SLAM算法的同時運用有效的立體匹配算法來獲取濃密的特征點。按照估計出來的機器人路徑,我們將這些濃密的特征點映射到機器人坐標(biāo)系,最終得到基于點的3D重建地圖。
[Abstract]:Accurate 3D scene information is a very important factor in autonomous driving and mobile system navigation because of the low cost and ease of use of the camera. Intelligent robots usually make decisions based on observations from cameras. The real environment around them is quite complex and the observations are often noisy. It may also be possible to lose information. All of this makes the implementation of Visual SLAM more difficult, although autonomous navigation in highway navigation and simple environments has been successfully validated. Autonomous navigation in unknown and complex environment is still an unsolved problem. The method of this paper is to estimate the pose of robot and accurate 3D environmental feature from a series of stereo images. All the data are. It's from Bumblebee. XB3 binocular stereo camera. The camera is installed on the top of the smart car. This paper mainly studies the binocular visual SLAM system. The binocular visual SLAM mainly focuses on the 3D position and coordinates of robot pose and environment features. The sparse features are tracked and estimated in the estimation of robot posture. The feature set is too sparse to accurately describe the real 3D environment taken by camera. Getting accurate 3D information from stereo binocular image sequences is a key step in computer vision and robot autonomous navigation. We use circular SURF feature extraction matching algorithm to obtain rough matching features. The computation of the algorithm is small. The robustness is high. Then the exact stable feature points are obtained by using RANSAC and the elimination of the mismatch points. The obtained exact stable feature points are input into the SLAM system based on EKF to estimate the exact stable feature points. The accuracy and validity of the binocular visual SLAM algorithm are verified in the outdoor unstructured environment. In order to describe the real environment accurately. The binocular vision SLAM algorithm is used to obtain dense feature points simultaneously. According to the estimated robot path, we map these dense feature points to the robot coordinate system. Finally, the point-based 3D reconstruction map is obtained.
【學(xué)位授予單位】:中國海洋大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2015
【分類號】:TP391.41;TP242
【相似文獻】
相關(guān)期刊論文 前10條
1 李海軍;;基于雙目視覺的自動跟蹤系統(tǒng)應(yīng)用[J];火力與指揮控制;2010年01期
2 胡天翔;鄭加強;周宏平;;基于雙目視覺的樹木圖像測距方法[J];農(nóng)業(yè)機械學(xué)報;2010年11期
3 李夢和;林川;潘盛輝;;基于雙目視覺的礦井機車定位方法[J];煤礦機械;2012年04期
4 祝世平,強錫富;基于坐標(biāo)測量機的雙目視覺測距誤差分析[J];電子測量與儀器學(xué)報;2000年02期
5 汪倩倩;申忠宇;張亮;;基于雙目視覺模型的彩色目標(biāo)實時檢測與定位[J];南京師范大學(xué)學(xué)報(工程技術(shù)版);2008年01期
6 潘浩;趙宇明;;基于雙目視覺的客流監(jiān)測系統(tǒng)[J];微計算機信息;2009年33期
7 單寶華;申宇;;基于雙目視覺的拉索模型自由振動監(jiān)測試驗[J];土木工程學(xué)報;2012年11期
8 紀(jì)超;王慶;;基于雙目視覺的自主空中加油算法研究與仿真[J];系統(tǒng)仿真學(xué)報;2013年06期
9 岳亮;;一種基于雙目視覺的安全車距測量方法[J];電視技術(shù);2013年15期
10 許明杰,王洪榮;雙目視覺中恢復(fù)模型點的方法──公垂線法[J];指揮技術(shù)學(xué)院學(xué)報;1997年02期
相關(guān)會議論文 前7條
1 孟環(huán)標(biāo);楊興強;李雪梅;;基于雙目視覺的測量系統(tǒng)誤差分析[A];第五屆全國幾何設(shè)計與計算學(xué)術(shù)會議論文集[C];2011年
2 朱宗磊;殷福亮;;基于雙目視覺的目標(biāo)檢測與跟蹤系統(tǒng)[A];2010年通信理論與信號處理學(xué)術(shù)年會論文集[C];2010年
3 王榮本;張明恒;毛曉燕;;雙目視覺技術(shù)在環(huán)境探測中的應(yīng)用[A];中國宇航學(xué)會深空探測技術(shù)專業(yè)委員會第二屆學(xué)術(shù)會議論文集[C];2005年
4 張靜;李琳;劉曉平;;基于雙目視覺的虛擬手的實現(xiàn)[A];計算機技術(shù)與應(yīng)用進展——全國第17屆計算機科學(xué)與技術(shù)應(yīng)用(CACIS)學(xué)術(shù)會議論文集(上冊)[C];2006年
5 吳濤;劉欣;;基于單雙目視覺信息融合的障礙檢測方法[A];中國宇航學(xué)會深空探測技術(shù)專業(yè)委員會第二屆學(xué)術(shù)會議論文集[C];2005年
6 孫明;;基于雙目視覺的移動機器人避障研究[A];中國農(nóng)業(yè)工程學(xué)會2011年學(xué)術(shù)年會論文集[C];2011年
7 杜英魁;韓建達;唐延?xùn)|;;基于雙目重建不確定性的動態(tài)特征濾除[A];第七屆全國信息獲取與處理學(xué)術(shù)會議論文集[C];2009年
相關(guān)博士學(xué)位論文 前2條
1 陳學(xué)惠;基于移動機器人雙目視覺的井下三維場景重建方法研究[D];中國礦業(yè)大學(xué)(北京);2012年
2 陳希章;基于雙目視覺的弧焊機器人焊縫三維信息獲取研究[D];上海交通大學(xué);2007年
相關(guān)碩士學(xué)位論文 前10條
1 麥樹彬;基于雙目視覺的色盲輔助技術(shù)的研究[D];華南理工大學(xué);2015年
2 徐宏;基于雙目視覺和稀疏表示的智能倒車控制研究[D];西南交通大學(xué);2015年
3 李輝;田間機器人的雙目視覺系統(tǒng)誤差分析研究[D];內(nèi)蒙古大學(xué);2015年
4 逯沛龍;基于FPGA的雙目視覺圖像預(yù)處理系統(tǒng)設(shè)計與實現(xiàn)[D];南京理工大學(xué);2015年
5 王婷婷;基于GPU的雙目視覺運動目標(biāo)檢測跟蹤算法研究[D];哈爾濱工業(yè)大學(xué);2015年
6 王昌盛;基于ORB算法的雙目視覺測量研究[D];哈爾濱工業(yè)大學(xué);2015年
7 趙程;具有圓面特征的非合作目標(biāo)雙目視覺位姿測量[D];哈爾濱工業(yè)大學(xué);2015年
8 路研研;在軌航天器雙目視覺圖像采集與處理系統(tǒng)研制[D];哈爾濱工業(yè)大學(xué);2015年
9 曹之樂;基于雙目視覺的焦點定位方法研究與應(yīng)用[D];重慶理工大學(xué);2015年
10 王洪偉;基于雙目視覺的紅綠燈路口安全距離預(yù)警研究[D];安徽工程大學(xué);2015年
,本文編號:1471049
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/1471049.html