基于RGB-D相機(jī)的室內(nèi)視覺SLAM算法研究
發(fā)布時(shí)間:2021-10-27 04:42
視覺SLAM(Simultaneous Localization And Mapping)使得移動(dòng)機(jī)器人能夠在陌生的室內(nèi)環(huán)境中自主定位并感知環(huán)境信息,是移動(dòng)機(jī)器人完成智能交互、自主導(dǎo)航等高級(jí)復(fù)雜任務(wù)的前提。視覺里程計(jì)和建圖是視覺SLAM中的兩個(gè)重要部分,視覺里程計(jì)是利用相鄰兩幀的圖像信息來估計(jì)相機(jī)當(dāng)前的位姿,建圖是指利用位姿來生成點(diǎn)云地圖的過程。本文針對(duì)室內(nèi)場(chǎng)景的特點(diǎn),提出了一種基于RGB-D圖像的視覺里程計(jì)算法,和一種創(chuàng)建語義地圖的方法。該方法能夠有效提升視覺SLAM算法的定位精度和魯棒性,并可以實(shí)現(xiàn)對(duì)環(huán)境的語義感知。(1)室內(nèi)場(chǎng)景同時(shí)具有低紋理、密集重復(fù)結(jié)構(gòu)的特點(diǎn),采用基于圖像特征點(diǎn)的視覺里程計(jì)算法進(jìn)行定位和建圖時(shí),由于特征點(diǎn)不足、誤匹配點(diǎn)多,會(huì)導(dǎo)致定位精度低、甚至跟蹤丟失。本文提出一種基于點(diǎn)、線特征和GMS(Grid-based Motion Statistics)的視覺里程計(jì)算法。針對(duì)特征點(diǎn)不足的問題,該方法將點(diǎn)、線特征相結(jié)合,在低紋理和密集重復(fù)結(jié)構(gòu)區(qū)域,加倍特征的提取數(shù)量;針對(duì)誤匹配點(diǎn)多的問題,采用GMS算法快速地將大量粗匹配點(diǎn)特征轉(zhuǎn)換為高質(zhì)量的有效匹配點(diǎn),并采用RatioT...
【文章來源】:西安科技大學(xué)陜西省
【文章頁(yè)數(shù)】:80 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
SLAM應(yīng)用實(shí)例
西安科技大學(xué)碩士學(xué)位論文2統(tǒng)的定位精度,從而影響建圖效果。圖1.2視覺SLAM框架視覺SLAM按照視覺傳感器的不同可以分為三種,如表1.1所示。單目視覺SLAM方案,利用單個(gè)攝像頭,每次獲取的數(shù)據(jù)只是單張圖像數(shù)據(jù)的紋理信息,無法獲取場(chǎng)景的絕對(duì)尺度,只能獲取一個(gè)相對(duì)的尺度值,如果想要獲取絕對(duì)尺度,則需要加上一些輔助設(shè)備,如慣性導(dǎo)航單元(InertialMeasurementUnit,IMU)等;雙目視覺SLAM方案,利用兩個(gè)攝像頭,同時(shí)獲取左右視角圖像,以兩張圖像的視差來計(jì)算場(chǎng)景深度,但探測(cè)場(chǎng)景的范圍受到相機(jī)的基線距離的影響;基于RGB-D相機(jī)的視覺SLAM方案,能夠通過RGB-D相機(jī)同時(shí)獲取彩色圖像和深度圖像。例如KinectV2通過飛行時(shí)間法(Time-of-Flight,ToF)來計(jì)算發(fā)射光和反射光的時(shí)間差來獲取場(chǎng)景的深度信息。由于RGB-D相機(jī)可以直接獲取場(chǎng)景的深度信息,簡(jiǎn)化了深度計(jì)算過程,使得計(jì)算量大大減小,可以提升視覺SLAM算法的實(shí)時(shí)性,因此本課題采用RGB-D相機(jī)作為視覺傳感器。表1.1開源視覺SLAM方案視覺傳感器開源方案單目相機(jī)MonoSLAM[4][5]、PTAM[6]、LSD-SLAM[7][8]、SVO[10]、DSO[11]、ORB-SLAM[18]雙目相機(jī)ORB-SLAM2[21]、RTAB-MAP[22]RGB-D相機(jī)ElasticFusion[12]、KinectFusion[13]、RGB-DSLAM[17]、ORB-SLAM2[21]1.1.2室內(nèi)視覺SLAM特點(diǎn)室內(nèi)視覺SLAM是指在室內(nèi)環(huán)境下采用視覺SLAM算法進(jìn)行同步定位和建圖,室內(nèi)環(huán)境是一種典型的人造結(jié)構(gòu)化環(huán)境,存在大量的豐富結(jié)構(gòu)場(chǎng)景,可以用簡(jiǎn)單的幾何模型來表達(dá),如直線等;但室內(nèi)環(huán)境復(fù)雜,也存在許多低紋理、重復(fù)結(jié)構(gòu)場(chǎng)景,如光滑的地面、墻角、貼有壁紙的墻壁、貼有木地板的地面等,如圖1.3所示。這對(duì)于基于視覺SLAM算法來說是一個(gè)巨大的挑戰(zhàn),一旦相機(jī)進(jìn)入低紋理或密集重復(fù)結(jié)構(gòu)的場(chǎng)景,由于特征點(diǎn)匱?
室內(nèi)
本文編號(hào):3460894
【文章來源】:西安科技大學(xué)陜西省
【文章頁(yè)數(shù)】:80 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
SLAM應(yīng)用實(shí)例
西安科技大學(xué)碩士學(xué)位論文2統(tǒng)的定位精度,從而影響建圖效果。圖1.2視覺SLAM框架視覺SLAM按照視覺傳感器的不同可以分為三種,如表1.1所示。單目視覺SLAM方案,利用單個(gè)攝像頭,每次獲取的數(shù)據(jù)只是單張圖像數(shù)據(jù)的紋理信息,無法獲取場(chǎng)景的絕對(duì)尺度,只能獲取一個(gè)相對(duì)的尺度值,如果想要獲取絕對(duì)尺度,則需要加上一些輔助設(shè)備,如慣性導(dǎo)航單元(InertialMeasurementUnit,IMU)等;雙目視覺SLAM方案,利用兩個(gè)攝像頭,同時(shí)獲取左右視角圖像,以兩張圖像的視差來計(jì)算場(chǎng)景深度,但探測(cè)場(chǎng)景的范圍受到相機(jī)的基線距離的影響;基于RGB-D相機(jī)的視覺SLAM方案,能夠通過RGB-D相機(jī)同時(shí)獲取彩色圖像和深度圖像。例如KinectV2通過飛行時(shí)間法(Time-of-Flight,ToF)來計(jì)算發(fā)射光和反射光的時(shí)間差來獲取場(chǎng)景的深度信息。由于RGB-D相機(jī)可以直接獲取場(chǎng)景的深度信息,簡(jiǎn)化了深度計(jì)算過程,使得計(jì)算量大大減小,可以提升視覺SLAM算法的實(shí)時(shí)性,因此本課題采用RGB-D相機(jī)作為視覺傳感器。表1.1開源視覺SLAM方案視覺傳感器開源方案單目相機(jī)MonoSLAM[4][5]、PTAM[6]、LSD-SLAM[7][8]、SVO[10]、DSO[11]、ORB-SLAM[18]雙目相機(jī)ORB-SLAM2[21]、RTAB-MAP[22]RGB-D相機(jī)ElasticFusion[12]、KinectFusion[13]、RGB-DSLAM[17]、ORB-SLAM2[21]1.1.2室內(nèi)視覺SLAM特點(diǎn)室內(nèi)視覺SLAM是指在室內(nèi)環(huán)境下采用視覺SLAM算法進(jìn)行同步定位和建圖,室內(nèi)環(huán)境是一種典型的人造結(jié)構(gòu)化環(huán)境,存在大量的豐富結(jié)構(gòu)場(chǎng)景,可以用簡(jiǎn)單的幾何模型來表達(dá),如直線等;但室內(nèi)環(huán)境復(fù)雜,也存在許多低紋理、重復(fù)結(jié)構(gòu)場(chǎng)景,如光滑的地面、墻角、貼有壁紙的墻壁、貼有木地板的地面等,如圖1.3所示。這對(duì)于基于視覺SLAM算法來說是一個(gè)巨大的挑戰(zhàn),一旦相機(jī)進(jìn)入低紋理或密集重復(fù)結(jié)構(gòu)的場(chǎng)景,由于特征點(diǎn)匱?
室內(nèi)
本文編號(hào):3460894
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3460894.html
最近更新
教材專著