基于深度學(xué)習(xí)的單目SLAM稠密地圖構(gòu)建方法研究
發(fā)布時間:2021-12-30 20:35
隨著社會的進步和科學(xué)技術(shù)的快速發(fā)展,自主移動機器人已應(yīng)用在社會生產(chǎn)生活的多個領(lǐng)域,并在其中發(fā)揮愈加重要的作用。視覺即時定位與地圖構(gòu)建技術(shù)(Visual Simultaneous Localization And Mapping,VSLAM)是保障自主移動機器人自主化、智能化的關(guān)鍵技術(shù),其中,單目SLAM憑借單個相機結(jié)構(gòu)簡單、成本低等優(yōu)勢,受到了研究者的廣泛關(guān)注。目前,單目SLAM可以獲得較高的定位精度,然而其構(gòu)建的地圖大多是稀疏的特征點地圖或者是利用圖像中顯著的梯度差計算得到的半稠密地圖,難以滿足自主移動機器人的局部避障、導(dǎo)航等實際需求。本文基于深度學(xué)習(xí)獲取單目圖像中稠密的環(huán)境深度信息,利用經(jīng)典的ORBSLAM(Oriented FAST and BRIEF)算法緊耦合慣性信息得到機器人帶有真實尺度的位姿信息,并引入截斷符號距離函數(shù)(Truncated Signed Distance Function,TSDF)模型構(gòu)建稠密地圖,提出了一種基于深度學(xué)習(xí)的單目SLAM稠密地圖構(gòu)建方法,同時研究了本方法面向嵌入式平臺的設(shè)計和實現(xiàn)。論文的主要的工作包括以下幾個部分:首先,為獲取單目圖像中稠密...
【文章來源】:中國科學(xué)技術(shù)大學(xué)安徽省 211工程院校 985工程院校
【文章頁數(shù)】:77 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.1稠密地圖構(gòu)建的應(yīng)用場景示例??
的地圖,缺點是對相機內(nèi)參敏感,同時對于快速移動容易丟失跟蹤而且無回??環(huán)檢測進行重定位恢復(fù)。3)介于特征點法和直接法之間的半直接法。半直接法??既使用特征點也利用非特征點像素信息。SV0-SLAM[1?1是Forster等在2014年提??出的基于半直接法的SLAM方法,首先追蹤關(guān)鍵點,然后利用關(guān)鍵點周圍像素??估計運動信息和計算地圖點。??晨??,*?■''?中.戶:??a)?PTAM?b)?ORB??.繼灣件一?—??“二■,學(xué)??c)?LSD?d)?SVO??圖1.2不同SLAM方法中構(gòu)建的地圖??以上單目SLAM方法在定位方面取得了較高的精度,然而構(gòu)建的地圖都不??夠稠密,難以滿足機器人避障導(dǎo)航等任務(wù),構(gòu)建稠密地圖仍是單目SLAM方法??的一大挑戰(zhàn)。??3??
?第1章緒論???c)?VI-MEAN?d)?QuadTree??圖1.3不同方法構(gòu)建的稠密地圖??1.2.3單目深度估計方法研究現(xiàn)狀??單目深度估計是稠密地圖構(gòu)建、三維目標識別、分割、檢測等任務(wù)的重要一??步。這個問題可以簡述為:輸入一個二維顏色圖像,估計其中像素的對應(yīng)圖像深??度。由于在采集圖像過程中丟失了第三維信息,要想恢復(fù)圖像的深度,在SLAM??中通常是通過連續(xù)圖像幀,根據(jù)多視角幾何關(guān)系求解深度。然而這種求解深度的??方式依賴特征點匹配,僅能恢復(fù)少量像素點的深度。隨著深度學(xué)習(xí)技術(shù)在圖像領(lǐng)??域的發(fā)展,目前單目深度估計基本通過深度學(xué)習(xí)網(wǎng)絡(luò)實現(xiàn)。??Saxena[23]等在2006年提出了使用馬爾科夫隨機場(Markov?Random?Field,??MRF)去學(xué)習(xí)視覺線索與深度之間的關(guān)系用于估計圖像深度。該方法后來又擴展??為通過將圖像劃分為對應(yīng)塊使用MRF學(xué)習(xí)塊的三維參數(shù)用于構(gòu)建三維場景[24]。??Kersh等%】在2012年提出了一種非參數(shù)深度估計方法,利用RGBD圖像構(gòu)建數(shù)??據(jù)庫,對待估計的圖像在數(shù)據(jù)庫中查找相似的候選項進行深度估計,該方法基于??相似場景的景深相似的假設(shè)。Ladichy等[26]在2014年使用了像素深度分類器來??估計圖像深度,基于物體的感知距離與深度成反比的假設(shè),將圖像深度估計與語??義聯(lián)系起來。??基于深度學(xué)習(xí)的深度估計逐漸成為主流【27>28,29,3()]。扭§611等[27]在2014年利用??卷積神經(jīng)網(wǎng)絡(luò)估計圖像深度。他們組合使用了兩個網(wǎng)絡(luò),一個初級網(wǎng)絡(luò)用于估計??圖像的全局深度分布,一個精細網(wǎng)絡(luò)用于提取局部的深度信息。后來他們擴展成??三級網(wǎng)絡(luò)結(jié)構(gòu),添加
【參考文獻】:
期刊論文
[1]基于單目視覺的同時定位與地圖構(gòu)建方法綜述[J]. 劉浩敏,章國鋒,鮑虎軍. 計算機輔助設(shè)計與圖形學(xué)學(xué)報. 2016(06)
[2]單目視覺同步定位與地圖創(chuàng)建方法綜述[J]. 顧照鵬,劉宏. 智能系統(tǒng)學(xué)報. 2015(04)
本文編號:3558925
【文章來源】:中國科學(xué)技術(shù)大學(xué)安徽省 211工程院校 985工程院校
【文章頁數(shù)】:77 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.1稠密地圖構(gòu)建的應(yīng)用場景示例??
的地圖,缺點是對相機內(nèi)參敏感,同時對于快速移動容易丟失跟蹤而且無回??環(huán)檢測進行重定位恢復(fù)。3)介于特征點法和直接法之間的半直接法。半直接法??既使用特征點也利用非特征點像素信息。SV0-SLAM[1?1是Forster等在2014年提??出的基于半直接法的SLAM方法,首先追蹤關(guān)鍵點,然后利用關(guān)鍵點周圍像素??估計運動信息和計算地圖點。??晨??,*?■''?中.戶:??a)?PTAM?b)?ORB??.繼灣件一?—??“二■,學(xué)??c)?LSD?d)?SVO??圖1.2不同SLAM方法中構(gòu)建的地圖??以上單目SLAM方法在定位方面取得了較高的精度,然而構(gòu)建的地圖都不??夠稠密,難以滿足機器人避障導(dǎo)航等任務(wù),構(gòu)建稠密地圖仍是單目SLAM方法??的一大挑戰(zhàn)。??3??
?第1章緒論???c)?VI-MEAN?d)?QuadTree??圖1.3不同方法構(gòu)建的稠密地圖??1.2.3單目深度估計方法研究現(xiàn)狀??單目深度估計是稠密地圖構(gòu)建、三維目標識別、分割、檢測等任務(wù)的重要一??步。這個問題可以簡述為:輸入一個二維顏色圖像,估計其中像素的對應(yīng)圖像深??度。由于在采集圖像過程中丟失了第三維信息,要想恢復(fù)圖像的深度,在SLAM??中通常是通過連續(xù)圖像幀,根據(jù)多視角幾何關(guān)系求解深度。然而這種求解深度的??方式依賴特征點匹配,僅能恢復(fù)少量像素點的深度。隨著深度學(xué)習(xí)技術(shù)在圖像領(lǐng)??域的發(fā)展,目前單目深度估計基本通過深度學(xué)習(xí)網(wǎng)絡(luò)實現(xiàn)。??Saxena[23]等在2006年提出了使用馬爾科夫隨機場(Markov?Random?Field,??MRF)去學(xué)習(xí)視覺線索與深度之間的關(guān)系用于估計圖像深度。該方法后來又擴展??為通過將圖像劃分為對應(yīng)塊使用MRF學(xué)習(xí)塊的三維參數(shù)用于構(gòu)建三維場景[24]。??Kersh等%】在2012年提出了一種非參數(shù)深度估計方法,利用RGBD圖像構(gòu)建數(shù)??據(jù)庫,對待估計的圖像在數(shù)據(jù)庫中查找相似的候選項進行深度估計,該方法基于??相似場景的景深相似的假設(shè)。Ladichy等[26]在2014年使用了像素深度分類器來??估計圖像深度,基于物體的感知距離與深度成反比的假設(shè),將圖像深度估計與語??義聯(lián)系起來。??基于深度學(xué)習(xí)的深度估計逐漸成為主流【27>28,29,3()]。扭§611等[27]在2014年利用??卷積神經(jīng)網(wǎng)絡(luò)估計圖像深度。他們組合使用了兩個網(wǎng)絡(luò),一個初級網(wǎng)絡(luò)用于估計??圖像的全局深度分布,一個精細網(wǎng)絡(luò)用于提取局部的深度信息。后來他們擴展成??三級網(wǎng)絡(luò)結(jié)構(gòu),添加
【參考文獻】:
期刊論文
[1]基于單目視覺的同時定位與地圖構(gòu)建方法綜述[J]. 劉浩敏,章國鋒,鮑虎軍. 計算機輔助設(shè)計與圖形學(xué)學(xué)報. 2016(06)
[2]單目視覺同步定位與地圖創(chuàng)建方法綜述[J]. 顧照鵬,劉宏. 智能系統(tǒng)學(xué)報. 2015(04)
本文編號:3558925
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3558925.html
最近更新
教材專著