天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 航空航天論文 >

無人機自主導(dǎo)航的單目視覺SLAM技術(shù)研究

發(fā)布時間:2020-10-20 13:49
   無人機(Unmanned Aerial Vehicle,UAV)自主導(dǎo)航是發(fā)展必然趨勢。自主導(dǎo)航任務(wù)可劃分為定位、建圖、路徑規(guī)劃三要素,同步定位與建圖(Simultaneous Localization and Mapping,SLAM)技術(shù)解決了前兩個關(guān)鍵問題。視覺傳感器具有低成本、小型化等優(yōu)點,因此視覺SLAM被認(rèn)為是實現(xiàn)無人機在未知環(huán)境中自主導(dǎo)航的關(guān)鍵技術(shù)。本文選擇適應(yīng)場景更廣泛的單目相機作為前端傳感器,從無人機視覺SLAM的實時性、魯棒性、定位精度出發(fā),在現(xiàn)有理論框架下分作兩部分開展研究。首先,研究了基于半直接法的單目視覺里程計(Visual Odometry,VO)。針對半直接法運動估計存在的問題,在局部地圖跟蹤階段提出了兩點改進:第一,通過對投影點局部區(qū)域融入魯棒性更高的ORB點特征匹配,以改善運動估計易會陷入局部最優(yōu)的缺點;第二,提出了基于密度的跟蹤策略,以改善局部地圖跟蹤在特征分布集中的場景中魯棒性不足的缺點。在TUM數(shù)據(jù)集上實驗結(jié)果表明:本文ORB點特征匹配正確率為98.6%,平均能優(yōu)化5.20個像素誤差。在ICL-NUIM數(shù)據(jù)集上實驗結(jié)果表明:相比均勻跟蹤策略,本文的密度跟蹤法具有較好的魯棒性。然后,研究了基于關(guān)鍵幀的建圖及后端圖優(yōu)化。針對基于時間采樣或空間變換的關(guān)鍵幀策略不能較好的適用于無人機懸停、旋轉(zhuǎn)、前向視角等飛行方式的問題,本文考慮場景的視覺變化,提出了一種結(jié)合視覺與空間變換的關(guān)鍵幀策略,能夠較完整的保存場景信息。在特征提取方面,本文選用ORB點特征替換半直接法原有的FAST角點,針對低紋理場景中ORB點特征提取數(shù)量不足的缺點,增加了梯度點、線特征進行改善,并分析了梯度點特征參與運動估計的方式,而對于線特征,本文通過提取線兩端處的梯度點特征,建立兩點的聯(lián)系從而完成對線特征的表示,省去了空間直線的參數(shù)化,接著作為點特征參與運動估計,這種方法優(yōu)點在于即使線特征被檢測為偽線段、或是被遮擋,兩端梯度點仍可獨立開來。針對前端視覺里程計存在累積誤差的問題,提出了本文的后端圖優(yōu)化策略。實驗結(jié)果表明:梯度特征與密度跟蹤法結(jié)合具有更好的魯棒性;本文基于關(guān)鍵幀的地圖重建能準(zhǔn)確的表示場景細(xì)節(jié),線特征豐富了場景的結(jié)構(gòu)信息,基于點、線的重建地圖表達更為直觀,且有利于進一步的避障、路徑規(guī)劃等。最后,構(gòu)建了本文SLAM系統(tǒng),并進行了綜合評測實驗。實時性方面,本文SLAM能達到75fps的幀率。定位精度方面,在TUM數(shù)據(jù)集上實驗結(jié)果表明:不加入后端優(yōu)化的本文VO相比SVO、PLSVO分別提高了80.95%、69.01%;本文SLAM相比LSD-SLAM提高了56.11%,且在魯棒性上優(yōu)于PTAM、LSD-SLAM,ORB-SLAM高于本文SLAM 51.07%。在無人機數(shù)據(jù)集EUROC上實驗結(jié)果表明:本文SLAM相比本文VO提高了65.35%;本文VO部分結(jié)果高于SVO(edgelets)38.72%,相比無閉環(huán)的LSD-SLAM提高了52.55%。
【學(xué)位單位】:南京航空航天大學(xué)
【學(xué)位級別】:碩士
【學(xué)位年份】:2019
【中圖分類】:V279;V249.3
【部分圖文】:

領(lǐng)域,視覺,相機,自主導(dǎo)航


(c)谷歌無人駕駛車 (b)波士頓機器人“驚天三跳”圖 1. 1 SLAM 技術(shù)的應(yīng)用領(lǐng)域1.2 SLAM 技術(shù)國內(nèi)外研究現(xiàn)狀SLAM 這一概念最早源自于斯坦福大學(xué) Smith 的論文[1],意為同步定位與建圖,是指在沒有先驗信息的情況下,獲取傳感器數(shù)據(jù),定位自身的同時增量式地感知周圍環(huán)境。Leonard 和Durrant-Whyte 將機器人的一次自主導(dǎo)航任務(wù)劃分為三要素:“我在哪?”,“我所在環(huán)境如何?”以及“我該如何去往目的地?”,它們分別代表定位,建圖與路徑規(guī)劃[2]。SLAM 解決了自主導(dǎo)航的前兩個問題,被認(rèn)為是移動機器人實現(xiàn)自主化的關(guān)鍵技術(shù)。SLAM 在傳感器的實現(xiàn)主要可分為激光和視覺兩大類,早期 SLAM 研究[3]通常采用高精度的激光雷達作為前端數(shù)據(jù)傳感器,通過激光雷達能得到距離角度信息,但它具有成本昂貴的缺點。近年來,計算機視覺發(fā)展迅猛,相機逐漸小型化及低成本化,視覺 SLAM 成為了熱點研究方向,圖 1. 2 為視覺 SLAM 的組成及其研究方向的劃分。視覺 SLAM 從傳感器上可以劃分為單目、雙目及 RGB-D 相機。它們的區(qū)別在于:單目相機不能直接獲得像素的深度信息,但可以在一個尺度下通過連續(xù)圖像的匹配、跟蹤恢復(fù)場景結(jié)構(gòu),適用于各種規(guī)模的場景。雙目相機通

視覺,研究方向,特征點法,里程計


圖 1. 2 視覺 SLAM 的組成及其研究方向的劃分.1 視覺里程計研究現(xiàn)狀視覺里程計(VisualOdometry,VO)作為視覺 SLAM 前端重要的組成部分,用于從視獲取圖像序列,估計相機位姿,這里的位姿針對于無人機在三維空間的運動,由 3 自轉(zhuǎn)與 3 自由度的平移組成。視覺里程計從實現(xiàn)方式上分為特征點法及直接法。.1.1 特征點法特征點法提取圖像中稀疏的特征點,通過描述子完成幀間匹配,然后根據(jù)特征點間 22D 到 3D 或是 3D 到 3D 的約束關(guān)系使用對極幾何、PNP 或 ICP 等算法求解位姿。Da于 2007 年提出的 MonoSLAM[4]采用了特征點法,通過圖像塊特征表示地圖點,是第的單目視覺SLAM系統(tǒng),但是它僅能跟蹤很稀疏的特征點。同年Klein提出的PTAM(Pking and Mapping)[5]創(chuàng)新性的實現(xiàn)了跟蹤與建圖過程的并行化,并首次有了前端與后:前端為跟蹤線程,根據(jù)獲取的圖像數(shù)據(jù)實時估計位姿;后端引入了關(guān)鍵幀機制,實的非線性優(yōu)化。后續(xù)多數(shù)應(yīng)用于無人機的視覺里程計[6][7]也都依賴于 PTAM,但 PTA

經(jīng)典,線特征,點線,雙目


無人機自主導(dǎo)航的單目視覺 SLAM 技術(shù)研究2015 年 Zhang G 等人提出了僅包含線特征的雙目 SLSLAM,其通過兩種不同的表示對線段參數(shù)化:普呂克線坐標(biāo)用于有效初始化新觀測的線特征及空間直線的投影,而在圖優(yōu)化模型中采用正交表示[12]。2017 年謝曉佳在 SLSLAM 的基礎(chǔ)上,改進了線特征的提取、匹配,提出了點線綜合的圖優(yōu)化后端框架,構(gòu)建了較為完善的包含點線特征的雙目 SLAM 系統(tǒng)[13];2017 年P(guān)umarola 等人提出的 PL-SLAM[14]是基于點線特征的實時單目系統(tǒng),結(jié)合 ORB-SLAM 理論框架,將線特征融入單目初始化,位姿估計,關(guān)鍵幀篩選等策略中。
【相似文獻】

相關(guān)期刊論文 前10條

1 祁健誠;;基于雙目SLAM的室內(nèi)導(dǎo)航系統(tǒng)[J];通訊世界;2019年01期

2 吳林峰;王錄濤;;圖優(yōu)化SLAM的嵌入式處理技術(shù)[J];成都信息工程大學(xué)學(xué)報;2019年02期

3 盧天利;;基于地面匹配的單目SLAM局部尺度恢復(fù)[J];工業(yè)控制計算機;2019年08期

4 羅潤鑫;余柳平;陳夢強;黃軍;鄔依林;;SLAM問題中機器人定位誤差分析與控制[J];科學(xué)技術(shù)創(chuàng)新;2019年26期

5 董蕊芳;柳長安;楊國田;程瑞營;;基于圖優(yōu)化的單目線特征SLAM算法[J];東南大學(xué)學(xué)報(自然科學(xué)版);2017年06期

6 蔡來良;楊望山;王姍姍;朱學(xué)練;;SLAM在室內(nèi)測繪儀器研發(fā)中的應(yīng)用綜述[J];礦山測量;2017年04期

7 楊祥紅;王希彬;;無人機主動SLAM技術(shù)研究[J];系統(tǒng)仿真技術(shù);2015年04期

8 王超杰;蘇中;連曉峰;趙旭;;搜救環(huán)境中的仿生蛇形機器人SLAM方法[J];計算機工程與設(shè)計;2015年08期

9 吳曉琳;宋萌;苑晶;孫鳳池;陶通;;通訊范圍受限條件下的多機器人主動SLAM[J];系統(tǒng)工程與電子技術(shù);2012年10期

10 野舟;;SLAM-ER導(dǎo)彈達到兩項新里程碑[J];戰(zhàn)術(shù)導(dǎo)彈技術(shù);2009年06期


相關(guān)博士學(xué)位論文 前10條

1 王洪玲;移動機器人適應(yīng)搜救環(huán)境的同時定位和地圖構(gòu)建(SLAM)方法研究[D];山東大學(xué);2018年

2 劉丹;智能車輛同時定位與建圖關(guān)鍵技術(shù)研究[D];北京工業(yè)大學(xué);2018年

3 陳孟元;移動機器人仿生SLAM算法研究[D];中國科學(xué)技術(shù)大學(xué);2019年

4 張超凡;基于多目視覺與慣導(dǎo)融合的SLAM方法研究[D];中國科學(xué)技術(shù)大學(xué);2019年

5 金紅巖;PPRV全長基因克隆及H蛋白與SLAM受體相互作用的研究[D];中國農(nóng)業(yè)科學(xué)院;2014年

6 王丹丹;水下無人潛器同步定位與地圖生成方法研究[D];哈爾濱工程大學(xué);2017年

7 苑全德;基于視覺的多機器人協(xié)作SLAM研究[D];哈爾濱工業(yè)大學(xué);2016年

8 趙一路;人機交互環(huán)境下的主動SLAM及相關(guān)問題研究[D];復(fù)旦大學(xué);2013年

9 劉浩敏;面向復(fù)雜環(huán)境的魯棒高效的三維注冊與結(jié)構(gòu)恢復(fù)[D];浙江大學(xué);2017年

10 康軼非;不依賴GPS定位理論及方法研究[D];北京交通大學(xué);2015年


相關(guān)碩士學(xué)位論文 前10條

1 陳文;基于深度相機的移動機器人SLAM研究[D];重慶郵電大學(xué);2019年

2 漆保凌;室內(nèi)環(huán)境下的移動機器人視覺SLAM導(dǎo)航研究及系統(tǒng)實現(xiàn)[D];重慶郵電大學(xué);2019年

3 謝瑒;無人機自主導(dǎo)航的單目視覺SLAM技術(shù)研究[D];南京航空航天大學(xué);2019年

4 余士超;基于RGB-D相機的視覺SLAM技術(shù)研究[D];南京航空航天大學(xué);2019年

5 汪永生;基于結(jié)構(gòu)特征的故障衛(wèi)星SLAM相對導(dǎo)航技術(shù)研究[D];南京航空航天大學(xué);2019年

6 漆鈺暉;基于激光SLAM的3D點云配準(zhǔn)優(yōu)化方法研究[D];南昌大學(xué);2019年

7 張停偉;基于雙目視覺的三維重構(gòu)算法研究[D];寧夏大學(xué);2019年

8 丁仁杰;基于激光視覺信息的AGV即時定位與地圖構(gòu)建方法研究[D];哈爾濱工業(yè)大學(xué);2019年

9 盛家豪;基于視覺SLAM的小車路徑規(guī)劃研究[D];哈爾濱工業(yè)大學(xué);2019年

10 張建波;動態(tài)環(huán)境下基于語義分割的視覺SLAM方法研究[D];哈爾濱工業(yè)大學(xué);2019年



本文編號:2848761

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/hangkongsky/2848761.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶9f52c***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com