基于激光視覺信息的AGV即時(shí)定位與地圖構(gòu)建方法研究
【學(xué)位授予單位】:哈爾濱工業(yè)大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:TP212;TN958.98;TP23
【圖文】:
建圖優(yōu)化模型,并使用 LM 最小二乘法求解最優(yōu)估計(jì)位姿。Konolig構(gòu)造了稀疏圖優(yōu)化模型并使用稀疏 Cholesky 法求解,以提高原始 LM度。Kummerle 等人[26]針對(duì)上述優(yōu)化圖模型的求解問題提出了一種通法 g2o,并提供了開源的算法包。Hess 等人[27]則提出了回環(huán)檢測(cè)的概間匹配的方法循環(huán)迭代優(yōu)化子圖,并對(duì)子圖與子圖進(jìn)行優(yōu)化以減小而言之,經(jīng)過高斯濾波及粒子濾波理論的不斷發(fā)展,基于激光 SLA加深,在面對(duì)大尺度、有回環(huán)的環(huán)境應(yīng)用中取得了一定的成果。激光 SLAM 應(yīng)用現(xiàn)狀 SLAM 技術(shù)的應(yīng)用較廣泛,典型的如 google 的無人駕駛汽車,如圖 1車頂上裝載激光雷達(dá),底盤上裝有IMU裝置,結(jié)合GPS系統(tǒng)與激光S精確的實(shí)現(xiàn)即時(shí)定位于建圖的功能。之外,家用的掃地機(jī)器人也廣泛使用激光 SLAM 方法,如圖 1-2(b)所作模式為無地圖、隨機(jī)移動(dòng)式的,隨后轉(zhuǎn)向?yàn)楣潭ㄒ苿?dòng)模式,當(dāng)有避障,隨著 SLAM 技術(shù)的發(fā)展,掃地機(jī)器人配備激光雷達(dá),可以實(shí)圖并清掃,效果要明顯好于之前的工作模式。
進(jìn)行了最小化平差,其使用了一種新的關(guān)鍵幀機(jī)制,即提出一種基于熵的相計(jì)算方法檢測(cè)回環(huán),最后使用 g2o 通用圖優(yōu)化方法優(yōu)化位姿圖。Mur-Artal[40目 ORB-SLAM 的基礎(chǔ)上,亦提出基于雙目視覺的 ORB-SLAM2 方法,其使小化光束法平差的方法以代替 ICP、光流法等優(yōu)化方法。Endres[41]提出了一種 RGBD 相機(jī)的 3D 建圖方法,其包括特征提取、最小化光束法平差、位姿圖和地圖構(gòu)建等步驟。近期 Gomez-Ojeda 等人[42]提出了一種基于點(diǎn)線特征的M 方法,提取使用線條像素特征,具有較好的精度和實(shí)時(shí)性。總而言之,目視覺 SLAM 研究集中于光流法及特征法、后端優(yōu)化和回環(huán)檢測(cè)等方法,與此亦集中于提高算法的實(shí)時(shí)性、魯棒性。(2)視覺 SLAM 應(yīng)用現(xiàn)狀由于視覺 SLAM 研究的不斷推進(jìn),外加上相機(jī)的成本較激光雷達(dá)低,視覺M 技術(shù)將是未來主流的 SLAM 方法。雖然視覺 SLAM 發(fā)展較晚,其在智能移備的應(yīng)用較激光雷達(dá)少,主要應(yīng)用于無人機(jī)的實(shí)時(shí)定位導(dǎo)航、軍事勘察中的地圖構(gòu)建中,在巡檢機(jī)器人中亦有較好的應(yīng)用。除此之外,其在 AR 技術(shù)中的物體實(shí)時(shí)構(gòu)建亦有曠闊的應(yīng)用前景。
第 2 章 AGV 系統(tǒng)模型建立 過程是理想化的情形,由于外部環(huán)境、AGV 結(jié)的噪聲會(huì)對(duì)定位與建圖精度產(chǎn)生較大影響,為表性,因而需要使用概率公式對(duì)噪聲誤差進(jìn)行描述是一個(gè)馬爾可夫過程,由圖 2-2 所示。假定離GV 的狀態(tài)遷移依賴 t-1 時(shí)刻的狀態(tài)和控制量tu 刻的狀態(tài)和控制量t+1u ; z 表示激光雷達(dá)、相機(jī)等征地圖。
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 祁健誠;;基于雙目SLAM的室內(nèi)導(dǎo)航系統(tǒng)[J];通訊世界;2019年01期
2 吳林峰;王錄濤;;圖優(yōu)化SLAM的嵌入式處理技術(shù)[J];成都信息工程大學(xué)學(xué)報(bào);2019年02期
3 盧天利;;基于地面匹配的單目SLAM局部尺度恢復(fù)[J];工業(yè)控制計(jì)算機(jī);2019年08期
4 羅潤(rùn)鑫;余柳平;陳夢(mèng)強(qiáng);黃軍;鄔依林;;SLAM問題中機(jī)器人定位誤差分析與控制[J];科學(xué)技術(shù)創(chuàng)新;2019年26期
5 董蕊芳;柳長(zhǎng)安;楊國(guó)田;程瑞營(yíng);;基于圖優(yōu)化的單目線特征SLAM算法[J];東南大學(xué)學(xué)報(bào)(自然科學(xué)版);2017年06期
6 蔡來良;楊望山;王姍姍;朱學(xué)練;;SLAM在室內(nèi)測(cè)繪儀器研發(fā)中的應(yīng)用綜述[J];礦山測(cè)量;2017年04期
7 楊祥紅;王希彬;;無人機(jī)主動(dòng)SLAM技術(shù)研究[J];系統(tǒng)仿真技術(shù);2015年04期
8 王超杰;蘇中;連曉峰;趙旭;;搜救環(huán)境中的仿生蛇形機(jī)器人SLAM方法[J];計(jì)算機(jī)工程與設(shè)計(jì);2015年08期
9 吳曉琳;宋萌;苑晶;孫鳳池;陶通;;通訊范圍受限條件下的多機(jī)器人主動(dòng)SLAM[J];系統(tǒng)工程與電子技術(shù);2012年10期
10 野舟;;SLAM-ER導(dǎo)彈達(dá)到兩項(xiàng)新里程碑[J];戰(zhàn)術(shù)導(dǎo)彈技術(shù);2009年06期
相關(guān)會(huì)議論文 前10條
1 Xu Meng;Chen Zonghai;;Comparison between the Initialization of DSO and ORB-SLAM[A];第二十屆中國(guó)系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)年會(huì)論文集(20th CCSSTA 2019)[C];2019年
2 Li Xiaohan;Wang Jikai;Chen Zonghai;;Feature Performance Analysis on Different Scenes of ORB-SLAM2 System[A];第二十屆中國(guó)系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)年會(huì)論文集(20th CCSSTA 2019)[C];2019年
3 皮燕燕;王遠(yuǎn)明;劉為任;王興嶺;;二維場(chǎng)景中SLAM算法對(duì)比研究[A];2018慣性技術(shù)發(fā)展動(dòng)態(tài)發(fā)展方向研討會(huì)文集[C];2018年
4 蘇麗;李恩澤;劉志林;;基于嚙齒類動(dòng)物神經(jīng)模型的SLAM算法[A];第37屆中國(guó)控制會(huì)議論文集(D)[C];2018年
5 Jing Wang;Zongying Shi;Yisheng Zhong;;Visual SLAM Incorporating Wheel Odometer for Indoor Robots[A];第36屆中國(guó)控制會(huì)議論文集(D)[C];2017年
6 Adizul Ahmad;Shoudong Huang;Jianguo Jack Wang;Gamini Dissanayake;;A New State Vector for Range-Only SLAM[A];Proceedings of the 2011 Chinese Control and Decision Conference(CCDC)[C];2011年
7 ;A Hybrid SLAM method for service robots in Indoor Environment[A];中國(guó)自動(dòng)化學(xué)會(huì)控制理論專業(yè)委員會(huì)B卷[C];2011年
8 ;An SLAM algorithm based on improved UKF[A];第24屆中國(guó)控制與決策會(huì)議論文集[C];2012年
9 Bo He;Tao Zhang;Guijie Liu;;A New SLAM Algorithm Particle Filter-based for Autonomous Underwater Vehicle[A];proceedings of 2010 3rd International Conference on Computer and Electrical Engineering (ICCEE 2010 no.1)[C];2012年
10 Haoyin Zhou;Tao Zhang;;The combination of SfM and monocular SLAM[A];第26屆中國(guó)控制與決策會(huì)議論文集[C];2014年
相關(guān)重要報(bào)紙文章 前10條
1 蔣智孚;SLAM技術(shù)將為智慧礦山帶來質(zhì)的飛躍[N];中國(guó)黃金報(bào);2018年
2 中國(guó)青年報(bào)·中青在線記者 李超 通訊員 陰祥;從災(zāi)難中尋找靈感 大學(xué)生研發(fā)激光救援機(jī)器人[N];中國(guó)青年報(bào);2017年
3 實(shí)習(xí)記者 代小佩;AR導(dǎo)航能成為“路癡”福音嗎[N];科技日?qǐng)?bào);2018年
4 中國(guó)信息通信研究院 劉思言 蘇丹;東風(fēng)已至,服務(wù)機(jī)器人產(chǎn)業(yè)起跑[N];人民郵電;2018年
5 實(shí)習(xí)記者 崔爽;掃地機(jī)器人真能解放雙手嗎[N];科技日?qǐng)?bào);2018年
6 北京商報(bào)記者 金朝力;掃地機(jī)器人告別花瓶角色[N];北京商報(bào);2019年
7 北京 劉慧;物流機(jī)器人技術(shù)趨勢(shì)[N];電子報(bào);2019年
8 肖征榮;好軟件少不了它們[N];電腦報(bào);2003年
9 記者 王官波;“AI+”為醫(yī)療養(yǎng)老助力[N];中國(guó)縣域經(jīng)濟(jì)報(bào);2019年
10 本報(bào)特約撰稿 臨河;半島趨緊張,韓國(guó)有點(diǎn)亂[N];中國(guó)國(guó)防報(bào);2013年
相關(guān)博士學(xué)位論文 前10條
1 王洪玲;移動(dòng)機(jī)器人適應(yīng)搜救環(huán)境的同時(shí)定位和地圖構(gòu)建(SLAM)方法研究[D];山東大學(xué);2018年
2 劉丹;智能車輛同時(shí)定位與建圖關(guān)鍵技術(shù)研究[D];北京工業(yè)大學(xué);2018年
3 陳孟元;移動(dòng)機(jī)器人仿生SLAM算法研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2019年
4 張超凡;基于多目視覺與慣導(dǎo)融合的SLAM方法研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2019年
5 金紅巖;PPRV全長(zhǎng)基因克隆及H蛋白與SLAM受體相互作用的研究[D];中國(guó)農(nóng)業(yè)科學(xué)院;2014年
6 王丹丹;水下無人潛器同步定位與地圖生成方法研究[D];哈爾濱工程大學(xué);2017年
7 苑全德;基于視覺的多機(jī)器人協(xié)作SLAM研究[D];哈爾濱工業(yè)大學(xué);2016年
8 趙一路;人機(jī)交互環(huán)境下的主動(dòng)SLAM及相關(guān)問題研究[D];復(fù)旦大學(xué);2013年
9 劉浩敏;面向復(fù)雜環(huán)境的魯棒高效的三維注冊(cè)與結(jié)構(gòu)恢復(fù)[D];浙江大學(xué);2017年
10 康軼非;不依賴GPS定位理論及方法研究[D];北京交通大學(xué);2015年
相關(guān)碩士學(xué)位論文 前10條
1 陳文;基于深度相機(jī)的移動(dòng)機(jī)器人SLAM研究[D];重慶郵電大學(xué);2019年
2 漆保凌;室內(nèi)環(huán)境下的移動(dòng)機(jī)器人視覺SLAM導(dǎo)航研究及系統(tǒng)實(shí)現(xiàn)[D];重慶郵電大學(xué);2019年
3 謝tR;無人機(jī)自主導(dǎo)航的單目視覺SLAM技術(shù)研究[D];南京航空航天大學(xué);2019年
4 余士超;基于RGB-D相機(jī)的視覺SLAM技術(shù)研究[D];南京航空航天大學(xué);2019年
5 汪永生;基于結(jié)構(gòu)特征的故障衛(wèi)星SLAM相對(duì)導(dǎo)航技術(shù)研究[D];南京航空航天大學(xué);2019年
6 漆鈺暉;基于激光SLAM的3D點(diǎn)云配準(zhǔn)優(yōu)化方法研究[D];南昌大學(xué);2019年
7 張停偉;基于雙目視覺的三維重構(gòu)算法研究[D];寧夏大學(xué);2019年
8 丁仁杰;基于激光視覺信息的AGV即時(shí)定位與地圖構(gòu)建方法研究[D];哈爾濱工業(yè)大學(xué);2019年
9 盛家豪;基于視覺SLAM的小車路徑規(guī)劃研究[D];哈爾濱工業(yè)大學(xué);2019年
10 張建波;動(dòng)態(tài)環(huán)境下基于語義分割的視覺SLAM方法研究[D];哈爾濱工業(yè)大學(xué);2019年
本文編號(hào):2792741
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2792741.html