無人機自主導(dǎo)航的單目視覺SLAM技術(shù)研究
【學(xué)位單位】:南京航空航天大學(xué)
【學(xué)位級別】:碩士
【學(xué)位年份】:2019
【中圖分類】:V279;V249.3
【部分圖文】:
(c)谷歌無人駕駛車 (b)波士頓機器人“驚天三跳”圖 1. 1 SLAM 技術(shù)的應(yīng)用領(lǐng)域1.2 SLAM 技術(shù)國內(nèi)外研究現(xiàn)狀SLAM 這一概念最早源自于斯坦福大學(xué) Smith 的論文[1],意為同步定位與建圖,是指在沒有先驗信息的情況下,獲取傳感器數(shù)據(jù),定位自身的同時增量式地感知周圍環(huán)境。Leonard 和Durrant-Whyte 將機器人的一次自主導(dǎo)航任務(wù)劃分為三要素:“我在哪?”,“我所在環(huán)境如何?”以及“我該如何去往目的地?”,它們分別代表定位,建圖與路徑規(guī)劃[2]。SLAM 解決了自主導(dǎo)航的前兩個問題,被認(rèn)為是移動機器人實現(xiàn)自主化的關(guān)鍵技術(shù)。SLAM 在傳感器的實現(xiàn)主要可分為激光和視覺兩大類,早期 SLAM 研究[3]通常采用高精度的激光雷達作為前端數(shù)據(jù)傳感器,通過激光雷達能得到距離角度信息,但它具有成本昂貴的缺點。近年來,計算機視覺發(fā)展迅猛,相機逐漸小型化及低成本化,視覺 SLAM 成為了熱點研究方向,圖 1. 2 為視覺 SLAM 的組成及其研究方向的劃分。視覺 SLAM 從傳感器上可以劃分為單目、雙目及 RGB-D 相機。它們的區(qū)別在于:單目相機不能直接獲得像素的深度信息,但可以在一個尺度下通過連續(xù)圖像的匹配、跟蹤恢復(fù)場景結(jié)構(gòu),適用于各種規(guī)模的場景。雙目相機通
圖 1. 2 視覺 SLAM 的組成及其研究方向的劃分.1 視覺里程計研究現(xiàn)狀視覺里程計(VisualOdometry,VO)作為視覺 SLAM 前端重要的組成部分,用于從視獲取圖像序列,估計相機位姿,這里的位姿針對于無人機在三維空間的運動,由 3 自轉(zhuǎn)與 3 自由度的平移組成。視覺里程計從實現(xiàn)方式上分為特征點法及直接法。.1.1 特征點法特征點法提取圖像中稀疏的特征點,通過描述子完成幀間匹配,然后根據(jù)特征點間 22D 到 3D 或是 3D 到 3D 的約束關(guān)系使用對極幾何、PNP 或 ICP 等算法求解位姿。Da于 2007 年提出的 MonoSLAM[4]采用了特征點法,通過圖像塊特征表示地圖點,是第的單目視覺SLAM系統(tǒng),但是它僅能跟蹤很稀疏的特征點。同年Klein提出的PTAM(Pking and Mapping)[5]創(chuàng)新性的實現(xiàn)了跟蹤與建圖過程的并行化,并首次有了前端與后:前端為跟蹤線程,根據(jù)獲取的圖像數(shù)據(jù)實時估計位姿;后端引入了關(guān)鍵幀機制,實的非線性優(yōu)化。后續(xù)多數(shù)應(yīng)用于無人機的視覺里程計[6][7]也都依賴于 PTAM,但 PTA
無人機自主導(dǎo)航的單目視覺 SLAM 技術(shù)研究2015 年 Zhang G 等人提出了僅包含線特征的雙目 SLSLAM,其通過兩種不同的表示對線段參數(shù)化:普呂克線坐標(biāo)用于有效初始化新觀測的線特征及空間直線的投影,而在圖優(yōu)化模型中采用正交表示[12]。2017 年謝曉佳在 SLSLAM 的基礎(chǔ)上,改進了線特征的提取、匹配,提出了點線綜合的圖優(yōu)化后端框架,構(gòu)建了較為完善的包含點線特征的雙目 SLAM 系統(tǒng)[13];2017 年P(guān)umarola 等人提出的 PL-SLAM[14]是基于點線特征的實時單目系統(tǒng),結(jié)合 ORB-SLAM 理論框架,將線特征融入單目初始化,位姿估計,關(guān)鍵幀篩選等策略中。
【相似文獻】
相關(guān)期刊論文 前10條
1 祁健誠;;基于雙目SLAM的室內(nèi)導(dǎo)航系統(tǒng)[J];通訊世界;2019年01期
2 吳林峰;王錄濤;;圖優(yōu)化SLAM的嵌入式處理技術(shù)[J];成都信息工程大學(xué)學(xué)報;2019年02期
3 盧天利;;基于地面匹配的單目SLAM局部尺度恢復(fù)[J];工業(yè)控制計算機;2019年08期
4 羅潤鑫;余柳平;陳夢強;黃軍;鄔依林;;SLAM問題中機器人定位誤差分析與控制[J];科學(xué)技術(shù)創(chuàng)新;2019年26期
5 董蕊芳;柳長安;楊國田;程瑞營;;基于圖優(yōu)化的單目線特征SLAM算法[J];東南大學(xué)學(xué)報(自然科學(xué)版);2017年06期
6 蔡來良;楊望山;王姍姍;朱學(xué)練;;SLAM在室內(nèi)測繪儀器研發(fā)中的應(yīng)用綜述[J];礦山測量;2017年04期
7 楊祥紅;王希彬;;無人機主動SLAM技術(shù)研究[J];系統(tǒng)仿真技術(shù);2015年04期
8 王超杰;蘇中;連曉峰;趙旭;;搜救環(huán)境中的仿生蛇形機器人SLAM方法[J];計算機工程與設(shè)計;2015年08期
9 吳曉琳;宋萌;苑晶;孫鳳池;陶通;;通訊范圍受限條件下的多機器人主動SLAM[J];系統(tǒng)工程與電子技術(shù);2012年10期
10 野舟;;SLAM-ER導(dǎo)彈達到兩項新里程碑[J];戰(zhàn)術(shù)導(dǎo)彈技術(shù);2009年06期
相關(guān)博士學(xué)位論文 前10條
1 王洪玲;移動機器人適應(yīng)搜救環(huán)境的同時定位和地圖構(gòu)建(SLAM)方法研究[D];山東大學(xué);2018年
2 劉丹;智能車輛同時定位與建圖關(guān)鍵技術(shù)研究[D];北京工業(yè)大學(xué);2018年
3 陳孟元;移動機器人仿生SLAM算法研究[D];中國科學(xué)技術(shù)大學(xué);2019年
4 張超凡;基于多目視覺與慣導(dǎo)融合的SLAM方法研究[D];中國科學(xué)技術(shù)大學(xué);2019年
5 金紅巖;PPRV全長基因克隆及H蛋白與SLAM受體相互作用的研究[D];中國農(nóng)業(yè)科學(xué)院;2014年
6 王丹丹;水下無人潛器同步定位與地圖生成方法研究[D];哈爾濱工程大學(xué);2017年
7 苑全德;基于視覺的多機器人協(xié)作SLAM研究[D];哈爾濱工業(yè)大學(xué);2016年
8 趙一路;人機交互環(huán)境下的主動SLAM及相關(guān)問題研究[D];復(fù)旦大學(xué);2013年
9 劉浩敏;面向復(fù)雜環(huán)境的魯棒高效的三維注冊與結(jié)構(gòu)恢復(fù)[D];浙江大學(xué);2017年
10 康軼非;不依賴GPS定位理論及方法研究[D];北京交通大學(xué);2015年
相關(guān)碩士學(xué)位論文 前10條
1 陳文;基于深度相機的移動機器人SLAM研究[D];重慶郵電大學(xué);2019年
2 漆保凌;室內(nèi)環(huán)境下的移動機器人視覺SLAM導(dǎo)航研究及系統(tǒng)實現(xiàn)[D];重慶郵電大學(xué);2019年
3 謝瑒;無人機自主導(dǎo)航的單目視覺SLAM技術(shù)研究[D];南京航空航天大學(xué);2019年
4 余士超;基于RGB-D相機的視覺SLAM技術(shù)研究[D];南京航空航天大學(xué);2019年
5 汪永生;基于結(jié)構(gòu)特征的故障衛(wèi)星SLAM相對導(dǎo)航技術(shù)研究[D];南京航空航天大學(xué);2019年
6 漆鈺暉;基于激光SLAM的3D點云配準(zhǔn)優(yōu)化方法研究[D];南昌大學(xué);2019年
7 張停偉;基于雙目視覺的三維重構(gòu)算法研究[D];寧夏大學(xué);2019年
8 丁仁杰;基于激光視覺信息的AGV即時定位與地圖構(gòu)建方法研究[D];哈爾濱工業(yè)大學(xué);2019年
9 盛家豪;基于視覺SLAM的小車路徑規(guī)劃研究[D];哈爾濱工業(yè)大學(xué);2019年
10 張建波;動態(tài)環(huán)境下基于語義分割的視覺SLAM方法研究[D];哈爾濱工業(yè)大學(xué);2019年
本文編號:2848761
本文鏈接:http://sikaile.net/kejilunwen/hangkongsky/2848761.html