基于IMU與立體視覺融合的SLAM方法研究
發(fā)布時(shí)間:2021-01-25 04:10
基于多傳感器融合的同步定位與建圖(Simultaneous Localization and Mapping,SLAM)具有精度高、魯棒強(qiáng)及一致性好的優(yōu)點(diǎn),是目前SLAM領(lǐng)域的研究熱點(diǎn)。慣性測(cè)量單元(Inertial Measurement Unit,IMU)短時(shí)定位精度高,但是長時(shí)間定位存在漂移問題。視覺傳感器獲取的紋理信息豐富、不存在誤差積累,但在紋理特征不明顯、遮擋、模糊或快速運(yùn)動(dòng)的情況下,無法實(shí)現(xiàn)定位。二者融合可以克服各自的不足,實(shí)現(xiàn)精度高、可靠性好的同步定位與建圖,是目前研究較多的一類方法。針對(duì)該類融合方法,為了進(jìn)一步減小數(shù)據(jù)關(guān)聯(lián)過程中的累積誤差,本文將基于DBoW3的視覺閉環(huán)檢測(cè)方法引入IMU與立體視覺融合的SLAM中,并改進(jìn)了邊緣化處理方法。由于閉環(huán)檢測(cè)及全局優(yōu)化過程的引入及數(shù)據(jù)關(guān)聯(lián)部分的優(yōu)化,融合SLAM的精度和穩(wěn)定性得到了較大的提高。論文完成的主要工作包括:(1)基于針孔相機(jī)模型及IMU誤差模型,總結(jié)了 IMU與雙目立體視覺融合的定位原理,在此基礎(chǔ)上提出了一種改進(jìn)的緊耦合慣性視覺融合方法。該方法以非線性優(yōu)化的方式對(duì)IMU誤差項(xiàng)和視覺重投影誤差項(xiàng)進(jìn)行優(yōu)化,在局部優(yōu)化時(shí)采...
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:95 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
致謝
摘要
ABSTRACT
1 引言
1.1 研究背景及意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 IMU與視覺融合的SLAM方法
1.2.2 閉環(huán)檢測(cè)方法
1.3 論文研究內(nèi)容及結(jié)構(gòu)
2 IMU/視覺融合定位的建;A(chǔ)
2.1 IMU/視覺融合定位的坐標(biāo)系統(tǒng)
2.1.1 IMU相關(guān)的坐標(biāo)系及姿態(tài)表征
2.1.2 視覺相關(guān)的坐標(biāo)系統(tǒng)及變換
2.1.3 IMU/視覺融合的SLAM坐標(biāo)轉(zhuǎn)換
2.2 慣性導(dǎo)航系統(tǒng)建模
2.2.1 IMU誤差模型
2.2.2 IMU運(yùn)動(dòng)學(xué)模型
2.2.3 IMU預(yù)積分
2.3 雙目視覺系統(tǒng)建模
2.3.1 雙目相機(jī)模型
2.3.2 光速法平差
2.4 本章小結(jié)
3 基于IMU與立體視覺融合的SLAM方法
3.1 融合方法概述
3.2 融合建模方法
3.2.1 系統(tǒng)狀態(tài)變量
3.2.2 視覺與IMU聯(lián)合優(yōu)化
3.2.3 改進(jìn)的邊緣化方法
3.3 基于DBoW3的閉環(huán)檢測(cè)方法
3.3.1 閉環(huán)檢測(cè)
3.3.2 基于DBoW3的閉環(huán)檢測(cè)實(shí)現(xiàn)
3.4 基于Ceres的全局優(yōu)化方法及實(shí)驗(yàn)結(jié)果
3.5 本章小結(jié)
4 改進(jìn)的融合SLAM方法實(shí)驗(yàn)
4.1 實(shí)驗(yàn)平臺(tái)的設(shè)計(jì)與實(shí)現(xiàn)
4.1.1 實(shí)驗(yàn)硬件系統(tǒng)
4.1.2 實(shí)驗(yàn)軟件環(huán)境
4.2 IMU與攝像頭標(biāo)定實(shí)驗(yàn)
4.3 性能評(píng)價(jià)指標(biāo)
4.4 實(shí)驗(yàn)與結(jié)果分析
4.4.1 基于純視覺的定位和融合視覺與IMU的定位精度對(duì)比
4.4.2 基于Euroc標(biāo)準(zhǔn)數(shù)據(jù)集的實(shí)驗(yàn)
4.4.3 基于室外場景下校園數(shù)據(jù)集的實(shí)驗(yàn)
4.4.4 基于室內(nèi)場景下采集的數(shù)據(jù)集實(shí)驗(yàn)
4.5 本章小結(jié)
5 總結(jié)與展望
5.1 工作總結(jié)
5.2 下一步工作
參考文獻(xiàn)
圖索引
表索引
作者簡歷及攻讀碩士學(xué)位期間取得的研究成果
學(xué)位論文數(shù)據(jù)集
【參考文獻(xiàn)】:
期刊論文
[1]魯棒的非線性優(yōu)化的立體視覺-慣導(dǎo)SLAM[J]. 林輝燦,呂強(qiáng),王國勝,衛(wèi)恒,梁冰. 機(jī)器人. 2018(06)
[2]Indoor Positioning System Using Axis Alignment and Complementary IMUs for Robot Localization[J]. ZHOU Qinqin,LEI Siyu,YU Zhangguo,LIN Hsien-I,CHEN Xuechao,ZHANG Weimin. 機(jī)器人. 2017(03)
[3]基于慣性傳感器和視覺里程計(jì)的機(jī)器人定位[J]. 夏凌楠,張波,王營冠,魏建明. 儀器儀表學(xué)報(bào). 2013(01)
碩士論文
[1]動(dòng)態(tài)場景下的2D SLAM方法研究[D]. 楊闊.北京交通大學(xué) 2018
[2]基于ROS的慣性導(dǎo)航和視覺信息融合的移動(dòng)機(jī)器人定位研究[D]. 王德智.哈爾濱工業(yè)大學(xué) 2017
本文編號(hào):2998540
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:95 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
致謝
摘要
ABSTRACT
1 引言
1.1 研究背景及意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 IMU與視覺融合的SLAM方法
1.2.2 閉環(huán)檢測(cè)方法
1.3 論文研究內(nèi)容及結(jié)構(gòu)
2 IMU/視覺融合定位的建;A(chǔ)
2.1 IMU/視覺融合定位的坐標(biāo)系統(tǒng)
2.1.1 IMU相關(guān)的坐標(biāo)系及姿態(tài)表征
2.1.2 視覺相關(guān)的坐標(biāo)系統(tǒng)及變換
2.1.3 IMU/視覺融合的SLAM坐標(biāo)轉(zhuǎn)換
2.2 慣性導(dǎo)航系統(tǒng)建模
2.2.1 IMU誤差模型
2.2.2 IMU運(yùn)動(dòng)學(xué)模型
2.2.3 IMU預(yù)積分
2.3 雙目視覺系統(tǒng)建模
2.3.1 雙目相機(jī)模型
2.3.2 光速法平差
2.4 本章小結(jié)
3 基于IMU與立體視覺融合的SLAM方法
3.1 融合方法概述
3.2 融合建模方法
3.2.1 系統(tǒng)狀態(tài)變量
3.2.2 視覺與IMU聯(lián)合優(yōu)化
3.2.3 改進(jìn)的邊緣化方法
3.3 基于DBoW3的閉環(huán)檢測(cè)方法
3.3.1 閉環(huán)檢測(cè)
3.3.2 基于DBoW3的閉環(huán)檢測(cè)實(shí)現(xiàn)
3.4 基于Ceres的全局優(yōu)化方法及實(shí)驗(yàn)結(jié)果
3.5 本章小結(jié)
4 改進(jìn)的融合SLAM方法實(shí)驗(yàn)
4.1 實(shí)驗(yàn)平臺(tái)的設(shè)計(jì)與實(shí)現(xiàn)
4.1.1 實(shí)驗(yàn)硬件系統(tǒng)
4.1.2 實(shí)驗(yàn)軟件環(huán)境
4.2 IMU與攝像頭標(biāo)定實(shí)驗(yàn)
4.3 性能評(píng)價(jià)指標(biāo)
4.4 實(shí)驗(yàn)與結(jié)果分析
4.4.1 基于純視覺的定位和融合視覺與IMU的定位精度對(duì)比
4.4.2 基于Euroc標(biāo)準(zhǔn)數(shù)據(jù)集的實(shí)驗(yàn)
4.4.3 基于室外場景下校園數(shù)據(jù)集的實(shí)驗(yàn)
4.4.4 基于室內(nèi)場景下采集的數(shù)據(jù)集實(shí)驗(yàn)
4.5 本章小結(jié)
5 總結(jié)與展望
5.1 工作總結(jié)
5.2 下一步工作
參考文獻(xiàn)
圖索引
表索引
作者簡歷及攻讀碩士學(xué)位期間取得的研究成果
學(xué)位論文數(shù)據(jù)集
【參考文獻(xiàn)】:
期刊論文
[1]魯棒的非線性優(yōu)化的立體視覺-慣導(dǎo)SLAM[J]. 林輝燦,呂強(qiáng),王國勝,衛(wèi)恒,梁冰. 機(jī)器人. 2018(06)
[2]Indoor Positioning System Using Axis Alignment and Complementary IMUs for Robot Localization[J]. ZHOU Qinqin,LEI Siyu,YU Zhangguo,LIN Hsien-I,CHEN Xuechao,ZHANG Weimin. 機(jī)器人. 2017(03)
[3]基于慣性傳感器和視覺里程計(jì)的機(jī)器人定位[J]. 夏凌楠,張波,王營冠,魏建明. 儀器儀表學(xué)報(bào). 2013(01)
碩士論文
[1]動(dòng)態(tài)場景下的2D SLAM方法研究[D]. 楊闊.北京交通大學(xué) 2018
[2]基于ROS的慣性導(dǎo)航和視覺信息融合的移動(dòng)機(jī)器人定位研究[D]. 王德智.哈爾濱工業(yè)大學(xué) 2017
本文編號(hào):2998540
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2998540.html
最近更新
教材專著