動態(tài)環(huán)境下基于視覺的自運動估計與環(huán)境建模方法研究
發(fā)布時間:2021-08-30 07:03
環(huán)境感知與導航定位是移動機器人實現(xiàn)自主化與智能化所要解決的最基本的問題。由于室內(nèi)GPS信號的缺失與小型慣性傳感器的誤差漂移,機器人的室內(nèi)導航與定位面臨著巨大的困難,因此基于視覺的機器人三維運動估計與環(huán)境建模技術(shù)展現(xiàn)出了重要的研究與應(yīng)用價值。然而現(xiàn)有的視覺導航與環(huán)境建模方法都只能在靜態(tài)環(huán)境下正常工作。如果場景中出現(xiàn)運動物體,那么它們將成為圖像中的干擾元素,嚴重影響機器人的視覺運動估計與其所建立的環(huán)境地圖。因此,本文研究機器人在含有運動物體的室內(nèi)動態(tài)環(huán)境中,采用基于視覺的方法估計機器人的三維位置與姿態(tài)信息,并建立一個全局一致且不含運動元素的靜態(tài)地圖。本文的主要研究工作和貢獻歸納如下。第一,對RGB-D傳感器的信息預處理技術(shù)進行了深入研究。首先針對其彩色相機與紅外相機分別進行內(nèi)參數(shù)標定,并對這兩個圖像流信號進行空間配準與時間同步,以獲取彩色圖像中每個像素所對應(yīng)的深度值。其次,深入研究了RGB-D攝像機的深度測量原理,并結(jié)合高斯混合模型,對RGB-D傳感器進行不確定度建模,從而獲得像素深度及其三維空間位置的不確定度。第二,針對動態(tài)環(huán)境下的三維視覺自運動估計問題,提出了一種新的基于特征區(qū)域分割的...
【文章來源】:浙江大學浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:99 頁
【學位級別】:碩士
【文章目錄】:
致謝
摘要
Abstract
第1章 緒論
1.1 研究背景與意義
1.1.1 研究背景
1.1.2 基于視覺的機器人三維運動估計與環(huán)境建模問題描述
1.1.3 動態(tài)環(huán)境下視覺自運動估計與環(huán)境建模的挑戰(zhàn)與意義
1.2 論文所涉技術(shù)及研究現(xiàn)狀
1.2.1 視覺自運動估計方法及其研究現(xiàn)狀
1.2.2 環(huán)境建模方法及其研究現(xiàn)狀
1.3 論文研究內(nèi)容與創(chuàng)新點
1.3.1 主要研究內(nèi)容
1.3.2 創(chuàng)新點與貢獻
1.4 本文章節(jié)安排
第2章 RGB-D傳感器信息預處理
2.1 引言
2.2 RGB-D傳感器結(jié)構(gòu)與原理
2.2.1 傳感器結(jié)構(gòu)
2.2.2 深度測量原理
2.3 RGB-D攝像機標定
2.3.1 坐標系約定
2.3.2 相機模型
2.3.3 內(nèi)參數(shù)標定
2.4 空間配準與時間同步
2.4.1 圖像空間配準
2.4.2 信號時間同步
2.5 不確定度建模
2.5.1 深度測量模型
2.5.2 不確定度建模
2.6 本章小結(jié)
第3章 基于特征區(qū)域分割的RGB-D視覺里程計算法
3.1 引言
3.2 算法框架
3.2.1 視覺里程計原理
3.2.2 FRSVO算法框架
3.3 特征提取與不確定度建模
3.3.1 特征選擇
3.3.2 基于不確定度的特征點篩選
3.4 特征區(qū)域分割
3.4.1 特征匹配
3.4.2 區(qū)域分割
3.5 運動估計與關(guān)鍵幀
3.5.1 攝像機運動估計
3.5.2 關(guān)鍵幀技術(shù)
3.6 算法實驗評估
3.6.1 算法運行平臺
3.6.2 室內(nèi)動態(tài)環(huán)境實驗
3.6.3 公開數(shù)據(jù)集對比實驗
3.6.4 時間效率測試
3.7 本章小結(jié)
第4章 動態(tài)環(huán)境下的靜態(tài)地圖構(gòu)建
4.1 引言
4.2 系統(tǒng)框架
4.3 SLAM圖模型優(yōu)化
4.3.1 位姿圖
4.3.2 閉環(huán)檢測
4.3.3 全局優(yōu)化
4.4 靜態(tài)地圖構(gòu)建
4.4.1 點云地圖連接
4.4.2 降采樣與野值剔除
4.4.3 靜態(tài)地圖構(gòu)建方法
4.5 系統(tǒng)實驗驗證
4.5.1 算法運行平臺
4.5.2 SLAM算法實驗評估
4.5.3 靜態(tài)地圖構(gòu)建方法實驗驗證
4.5.4 時間效率測試
4.6 本章小結(jié)
第5章 總結(jié)與展望
5.1 論文總結(jié)
5.2 研究展望
參考文獻
作者簡介
【參考文獻】:
期刊論文
[1]智能機器人的現(xiàn)狀及發(fā)展[J]. 任福繼,孫曉. 科技導報. 2015(21)
本文編號:3372310
【文章來源】:浙江大學浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:99 頁
【學位級別】:碩士
【文章目錄】:
致謝
摘要
Abstract
第1章 緒論
1.1 研究背景與意義
1.1.1 研究背景
1.1.2 基于視覺的機器人三維運動估計與環(huán)境建模問題描述
1.1.3 動態(tài)環(huán)境下視覺自運動估計與環(huán)境建模的挑戰(zhàn)與意義
1.2 論文所涉技術(shù)及研究現(xiàn)狀
1.2.1 視覺自運動估計方法及其研究現(xiàn)狀
1.2.2 環(huán)境建模方法及其研究現(xiàn)狀
1.3 論文研究內(nèi)容與創(chuàng)新點
1.3.1 主要研究內(nèi)容
1.3.2 創(chuàng)新點與貢獻
1.4 本文章節(jié)安排
第2章 RGB-D傳感器信息預處理
2.1 引言
2.2 RGB-D傳感器結(jié)構(gòu)與原理
2.2.1 傳感器結(jié)構(gòu)
2.2.2 深度測量原理
2.3 RGB-D攝像機標定
2.3.1 坐標系約定
2.3.2 相機模型
2.3.3 內(nèi)參數(shù)標定
2.4 空間配準與時間同步
2.4.1 圖像空間配準
2.4.2 信號時間同步
2.5 不確定度建模
2.5.1 深度測量模型
2.5.2 不確定度建模
2.6 本章小結(jié)
第3章 基于特征區(qū)域分割的RGB-D視覺里程計算法
3.1 引言
3.2 算法框架
3.2.1 視覺里程計原理
3.2.2 FRSVO算法框架
3.3 特征提取與不確定度建模
3.3.1 特征選擇
3.3.2 基于不確定度的特征點篩選
3.4 特征區(qū)域分割
3.4.1 特征匹配
3.4.2 區(qū)域分割
3.5 運動估計與關(guān)鍵幀
3.5.1 攝像機運動估計
3.5.2 關(guān)鍵幀技術(shù)
3.6 算法實驗評估
3.6.1 算法運行平臺
3.6.2 室內(nèi)動態(tài)環(huán)境實驗
3.6.3 公開數(shù)據(jù)集對比實驗
3.6.4 時間效率測試
3.7 本章小結(jié)
第4章 動態(tài)環(huán)境下的靜態(tài)地圖構(gòu)建
4.1 引言
4.2 系統(tǒng)框架
4.3 SLAM圖模型優(yōu)化
4.3.1 位姿圖
4.3.2 閉環(huán)檢測
4.3.3 全局優(yōu)化
4.4 靜態(tài)地圖構(gòu)建
4.4.1 點云地圖連接
4.4.2 降采樣與野值剔除
4.4.3 靜態(tài)地圖構(gòu)建方法
4.5 系統(tǒng)實驗驗證
4.5.1 算法運行平臺
4.5.2 SLAM算法實驗評估
4.5.3 靜態(tài)地圖構(gòu)建方法實驗驗證
4.5.4 時間效率測試
4.6 本章小結(jié)
第5章 總結(jié)與展望
5.1 論文總結(jié)
5.2 研究展望
參考文獻
作者簡介
【參考文獻】:
期刊論文
[1]智能機器人的現(xiàn)狀及發(fā)展[J]. 任福繼,孫曉. 科技導報. 2015(21)
本文編號:3372310
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3372310.html
最近更新
教材專著