基于場景反饋的視覺-IMU緊耦合的室內(nèi)定位方法研究
發(fā)布時間:2021-02-19 19:00
隨著越來越普及的智能化的時代的來臨,諸如自動駕駛、無人機(jī)自主定位等高新高智能行業(yè)的快速興起,室內(nèi)定位需求快速增加,而傳統(tǒng)基于GNSS和IMU的耦合定位方法在無GNSS或弱GNSS的室內(nèi)場景下會失效,如何解決在無GNSS室內(nèi)場景中的自主定位問題,是自動駕駛、智能機(jī)器人等領(lǐng)域的核心。由于視覺SLAM方法不依賴環(huán)境的先驗(yàn)信息搭配視覺傳感器即可實(shí)現(xiàn)對未知環(huán)境的定位,且IMU與視覺SLAM方法具有非常良好的互補(bǔ)性,因此基于IMU-視覺SLAM融合的定位成為室內(nèi)定位的熱門研究點(diǎn)。傳統(tǒng)基于單一點(diǎn)特征的視覺SLAM方法,在面對低紋理場景中時由于特征缺失其魯棒性較低,而線特征在諸如白色墻面等場景中卻非常豐富,因此本文首先基于點(diǎn)線特征建立幀間追蹤提高系統(tǒng)的魯棒性。場景的不同會導(dǎo)致點(diǎn)、線特征的性能產(chǎn)生差異,基于此本文提出基于場景分割建立自適應(yīng)的點(diǎn)線特征的視覺估計模型。最后在建立自適應(yīng)的點(diǎn)線加權(quán)追蹤模型后,基于IMU預(yù)積分理論,完成系統(tǒng)初始化和建立IMU與視覺的緊耦合方法,從而建立基于場景反饋的視覺-IMU緊耦合的單目視覺SLAM室內(nèi)定位系統(tǒng)。本文具體內(nèi)容如下:(1)前端建立多特征的觀測模型:首先充分分析單一...
【文章來源】:中國地質(zhì)大學(xué)(北京)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:96 頁
【學(xué)位級別】:碩士
【部分圖文】:
無人機(jī)的廣泛應(yīng)用
中國地質(zhì)大學(xué)(北京)碩士學(xué)位論文3視覺SLAM方法雖然能在大場景下獲得較為有效的定位效果,但在諸如低紋理、光照突變、大拐彎等局部特殊區(qū)域時魯棒性較差,易發(fā)生幀間追蹤失效(Chengetal,2019)。為解決這一缺陷,越來越多的研究學(xué)者開始引入多傳感器協(xié)同工作進(jìn)行優(yōu)勢互補(bǔ),其中IMU慣性測量元件不受場景影響且能高頻率輸出運(yùn)動信息,但I(xiàn)MU元件在大場景下的運(yùn)動測量會隨著時間的增加產(chǎn)生較大的誤差積累。IMU與視覺SLAM方法可很好的實(shí)現(xiàn)優(yōu)勢互補(bǔ),因此視覺SLAM方法與IMU的融合成為SLAM領(lǐng)域中非常熱門的研究點(diǎn)之一(王琪,2017)。(a)電力巡線(b)物流(c)環(huán)境監(jiān)測(d)災(zāi)后救援(e)偵察(f)協(xié)調(diào)作戰(zhàn)(g)農(nóng)業(yè)(h)航拍(i)偵察圖1-1無人機(jī)的廣泛應(yīng)用(a)密林(b)封閉室內(nèi)(c)城市建筑群圖1-2復(fù)雜多變的飛行環(huán)境
1引言4(a)自動駕駛車(b)掃地機(jī)器人(c)智能機(jī)器人圖1-3智能自主定位平臺(a)單目相機(jī)(b)雙目相機(jī)(c)RGBD相機(jī)圖1-4V-SLAM常用相機(jī)表1-1不同傳感器的優(yōu)缺點(diǎn)對比相機(jī)類型優(yōu)勢劣勢單目成本低,距離不受限尺度不確定性、初始化問題雙目可計算深度、距離不受限配置復(fù)雜、計算量大RGBD主動測量深度、重建效果較好測量范圍孝受日光干擾、受材質(zhì)干擾1.2國內(nèi)外研究現(xiàn)狀SLAM自1988提出至今經(jīng)過了30多年的發(fā)展已取得了較為顯著的成果,經(jīng)典視覺SLAM框架的建立為SLAM領(lǐng)域的研究定下了基礎(chǔ)框架與指導(dǎo)。如圖1-5所示,經(jīng)典視覺SLAM框架主要包括前端視覺里程計、后端優(yōu)化、回環(huán)檢測與地圖的構(gòu)建四大模塊。其中視覺里程計(Visualodometer)主要完成幀間運(yùn)動計算,解算相機(jī)運(yùn)動軌跡;后端優(yōu)化(Optimization)對前端計算得到的軌跡進(jìn)行優(yōu)化以獲取最優(yōu)解的過程;而回環(huán)檢測通過檢測是否達(dá)到已經(jīng)經(jīng)過的地方,從而進(jìn)行全局優(yōu)化有效的減小誤差累積,而建圖模塊完成對環(huán)境模型的建立,如生成稠密拓?fù)涞貓D或度量地圖等。
【參考文獻(xiàn)】:
期刊論文
[1]無人機(jī)信息安全研究綜述[J]. 何道敬,杜曉,喬銀榮,朱耀康,樊強(qiáng),羅旺. 計算機(jī)學(xué)報. 2019(05)
[2]室內(nèi)定位方法綜述[J]. 席瑞,李玉軍,侯孟書. 計算機(jī)科學(xué). 2016(04)
碩士論文
[1]基于視覺的語義SLAM關(guān)鍵技術(shù)研究[D]. 王澤民.戰(zhàn)略支援部隊(duì)信息工程大學(xué) 2018
[2]利用Kinect點(diǎn)云數(shù)據(jù)的室內(nèi)未知環(huán)境自主定位[D]. 常明.中國地質(zhì)大學(xué)(北京) 2017
[3]基于點(diǎn)線綜合特征的雙目視覺SLAM方法[D]. 謝曉佳.浙江大學(xué) 2017
本文編號:3041548
【文章來源】:中國地質(zhì)大學(xué)(北京)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:96 頁
【學(xué)位級別】:碩士
【部分圖文】:
無人機(jī)的廣泛應(yīng)用
中國地質(zhì)大學(xué)(北京)碩士學(xué)位論文3視覺SLAM方法雖然能在大場景下獲得較為有效的定位效果,但在諸如低紋理、光照突變、大拐彎等局部特殊區(qū)域時魯棒性較差,易發(fā)生幀間追蹤失效(Chengetal,2019)。為解決這一缺陷,越來越多的研究學(xué)者開始引入多傳感器協(xié)同工作進(jìn)行優(yōu)勢互補(bǔ),其中IMU慣性測量元件不受場景影響且能高頻率輸出運(yùn)動信息,但I(xiàn)MU元件在大場景下的運(yùn)動測量會隨著時間的增加產(chǎn)生較大的誤差積累。IMU與視覺SLAM方法可很好的實(shí)現(xiàn)優(yōu)勢互補(bǔ),因此視覺SLAM方法與IMU的融合成為SLAM領(lǐng)域中非常熱門的研究點(diǎn)之一(王琪,2017)。(a)電力巡線(b)物流(c)環(huán)境監(jiān)測(d)災(zāi)后救援(e)偵察(f)協(xié)調(diào)作戰(zhàn)(g)農(nóng)業(yè)(h)航拍(i)偵察圖1-1無人機(jī)的廣泛應(yīng)用(a)密林(b)封閉室內(nèi)(c)城市建筑群圖1-2復(fù)雜多變的飛行環(huán)境
1引言4(a)自動駕駛車(b)掃地機(jī)器人(c)智能機(jī)器人圖1-3智能自主定位平臺(a)單目相機(jī)(b)雙目相機(jī)(c)RGBD相機(jī)圖1-4V-SLAM常用相機(jī)表1-1不同傳感器的優(yōu)缺點(diǎn)對比相機(jī)類型優(yōu)勢劣勢單目成本低,距離不受限尺度不確定性、初始化問題雙目可計算深度、距離不受限配置復(fù)雜、計算量大RGBD主動測量深度、重建效果較好測量范圍孝受日光干擾、受材質(zhì)干擾1.2國內(nèi)外研究現(xiàn)狀SLAM自1988提出至今經(jīng)過了30多年的發(fā)展已取得了較為顯著的成果,經(jīng)典視覺SLAM框架的建立為SLAM領(lǐng)域的研究定下了基礎(chǔ)框架與指導(dǎo)。如圖1-5所示,經(jīng)典視覺SLAM框架主要包括前端視覺里程計、后端優(yōu)化、回環(huán)檢測與地圖的構(gòu)建四大模塊。其中視覺里程計(Visualodometer)主要完成幀間運(yùn)動計算,解算相機(jī)運(yùn)動軌跡;后端優(yōu)化(Optimization)對前端計算得到的軌跡進(jìn)行優(yōu)化以獲取最優(yōu)解的過程;而回環(huán)檢測通過檢測是否達(dá)到已經(jīng)經(jīng)過的地方,從而進(jìn)行全局優(yōu)化有效的減小誤差累積,而建圖模塊完成對環(huán)境模型的建立,如生成稠密拓?fù)涞貓D或度量地圖等。
【參考文獻(xiàn)】:
期刊論文
[1]無人機(jī)信息安全研究綜述[J]. 何道敬,杜曉,喬銀榮,朱耀康,樊強(qiáng),羅旺. 計算機(jī)學(xué)報. 2019(05)
[2]室內(nèi)定位方法綜述[J]. 席瑞,李玉軍,侯孟書. 計算機(jī)科學(xué). 2016(04)
碩士論文
[1]基于視覺的語義SLAM關(guān)鍵技術(shù)研究[D]. 王澤民.戰(zhàn)略支援部隊(duì)信息工程大學(xué) 2018
[2]利用Kinect點(diǎn)云數(shù)據(jù)的室內(nèi)未知環(huán)境自主定位[D]. 常明.中國地質(zhì)大學(xué)(北京) 2017
[3]基于點(diǎn)線綜合特征的雙目視覺SLAM方法[D]. 謝曉佳.浙江大學(xué) 2017
本文編號:3041548
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3041548.html
最近更新
教材專著