天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 碩博論文 > 信息類博士論文 >

多視圖像增強(qiáng)的RGB-D室內(nèi)高精度三維測圖方法

發(fā)布時間:2017-12-20 13:21

  本文關(guān)鍵詞:多視圖像增強(qiáng)的RGB-D室內(nèi)高精度三維測圖方法 出處:《武漢大學(xué)》2017年博士論文 論文類型:學(xué)位論文


  更多相關(guān)文章: RGB-D傳感器 3D SLAM 三維點云 室內(nèi)三維測圖 圖優(yōu)化


【摘要】:精細(xì)的室內(nèi)三維測圖已經(jīng)成為支撐室內(nèi)三維制圖,室內(nèi)定位導(dǎo)航及增強(qiáng)現(xiàn)實等應(yīng)用的重要的技術(shù)手段。目前,常用的室內(nèi)場景三維測圖手段主要有激光掃描(Terrestrial Laser Scanning)和基于視覺圖像序列的三維重建技術(shù)。激光掃描技術(shù)進(jìn)行室內(nèi)三維制圖時需提前設(shè)置拍攝點和標(biāo)靶,在復(fù)雜室內(nèi)環(huán)境中容易出現(xiàn)場景細(xì)節(jié)丟失,數(shù)據(jù)采集不完整的問題,同時激光掃描設(shè)備價格昂貴,難以得到普及;谝曈X圖像序列的三維重建技術(shù)可通過數(shù)碼相機(jī)拍攝的二維圖像序列來恢復(fù)室內(nèi)三維場景,其豐富的視覺信息可很好的增強(qiáng)閉環(huán)檢測。然而該方法建模時間長,而且在室內(nèi)昏暗環(huán)境或者紋理匱乏區(qū)域工作不穩(wěn)定。因此發(fā)展一種能夠快速響應(yīng)環(huán)境變化,便攜性高,數(shù)據(jù)處理工序簡單,高精度實時的三維制圖的方法具有重要意義。近年來,RGB-D傳感器,如Kinect和Structure Sensor,在室內(nèi)即時定位與地圖構(gòu)建應(yīng)用上被廣泛使用。其主要的優(yōu)勢是可實時獲取和更新三維空間信息,且具有極大的便攜性和低成本特性。本文利用RGB-D傳感器,提出一種多視圖像增強(qiáng)的RGB-D室內(nèi)高精度三維測圖方法。該方法分為兩部分,一部分是RGB-D三維SLAM方案,一部分是基于RGB-D點云的三維重建。RGB-D三維SLAM部分,在高精度相機(jī)校正基礎(chǔ)上,針對視覺SLAM累積誤差問題,本文深入分析RGB-D傳感器深度和視覺圖像數(shù)據(jù)特點,聯(lián)合視覺特征和幾何特征,提出從粗到細(xì)的RGB-D 3D SLAM方法。針對RGB-D相機(jī)深度傳感器量測距離和視角局限性導(dǎo)致遠(yuǎn)距離,大范圍室內(nèi)場景三維建模困難問題,提出二三維特征點聯(lián)合的光束法平差優(yōu)化方法來恢復(fù)RGB圖像序列相機(jī)姿態(tài),用以恢復(fù)遠(yuǎn)距離三維結(jié)構(gòu),有效彌補(bǔ)深度傳感器的缺陷,實現(xiàn)近遠(yuǎn)距離三維場景無縫融合。基于RGB-D點云的室內(nèi)三維重建方面,本文深入分析RGB-D傳感器數(shù)據(jù)采集及數(shù)據(jù)集特點,提出知識約束的RGB-D點云三維重建方法,可實現(xiàn)室內(nèi)基本組件快速建模。大幅度降低人工建模成本,提高RGB-D傳感器建模效率。具體研究內(nèi)容包括:1.提出高精度RGB-D多傳感器校正方法。一方面深入分析RGB-D設(shè)備工作原理,實現(xiàn)RGB-D傳感器深度相機(jī)和RGB相機(jī)同步校正,獲取對應(yīng)相機(jī)的內(nèi)外方位元素。另一方面,對RGB-D深度數(shù)據(jù)誤差進(jìn)行分析,構(gòu)建深度信息誤差模型,實現(xiàn)RGB-D深度數(shù)據(jù)高精度校正,提高深度數(shù)據(jù)精度。2.提出視覺與幾何特征融合的RGB-D即時定位與地圖構(gòu)建(3D SLAM)方法。在相機(jī)追蹤方面,該方法考慮深度數(shù)據(jù)測量誤差的不確定性,基于高精度RGB-D深度校正模型,根據(jù)特征點量測精度對不同深度下的特征點賦權(quán),調(diào)整其在相機(jī)追蹤算法中的貢獻(xiàn)。針對紋理稀疏區(qū)域,創(chuàng)新性的提出三維線要素描述算子,采用三維線匹配方法優(yōu)化相機(jī)姿態(tài),解決紋理匱乏區(qū)域相機(jī)追蹤問題;全局優(yōu)化方法中,基于視覺的閉環(huán)檢測,相機(jī)姿態(tài)約束的閉環(huán)檢測,知識約束的閉環(huán)檢測聯(lián)合的閉環(huán)檢測方案被用于檢測閉環(huán)約束,構(gòu)建圖優(yōu)化模型。同時考慮到相機(jī)追蹤時產(chǎn)生的隨機(jī)誤差,采用邊界權(quán)重的圖優(yōu)化算法,該算法對不同類型的閉環(huán)約束賦予不同的權(quán)重,降低閉環(huán)誤差的不確定性,進(jìn)而提高算法收斂度,有效降低累積誤差。3.提出二三維特征點聯(lián)合的光束法平差優(yōu)化方法。針對RGB-D相機(jī)深度傳感器量測距離和視角局限性導(dǎo)致遠(yuǎn)距離,大范圍室內(nèi)場景三維建模困難問題,本方法擬將RGB-D傳感器同步獲取的RGB圖像序列用于遠(yuǎn)距離場景恢復(fù),提出二三維特征點聯(lián)合的光束法平差優(yōu)化方法來恢復(fù)RGB圖像序列相機(jī)姿態(tài),該算法在相機(jī)校正的基礎(chǔ)上,將RGB-D SLAM獲取的深度相機(jī)姿態(tài)作為RGB相機(jī)初始姿態(tài),將特征點分為二維特征點及三維特征點,通過迭代優(yōu)化兩類特征點的總投影誤差優(yōu)化RGB相機(jī)軌跡。該方法可進(jìn)一步優(yōu)化相機(jī)姿態(tài),在長距離相機(jī)追蹤情況下可有效減少累積誤差。4.提出知識約束的RGB-D點云三維建模方法。針對手工室內(nèi)三維建模費(fèi)時費(fèi)力問題,深入分析RGB-D傳感器數(shù)據(jù)采集及數(shù)據(jù)集特點,在數(shù)據(jù)采集階段,通過交互式定義的方式對特定數(shù)據(jù)幀賦予特定語義信息,該語義信息可降低在組件提取復(fù)雜度;,在組件提取方面,針對室內(nèi)空間要素,如墻面,地板,天花板,考慮到RGB-D點云容易存在漏洞,數(shù)據(jù)完整性不高,采用三維-二維-三維的方式獲取室內(nèi)輪廓,針對門窗要素,采用基于色彩的點云分類方法實現(xiàn)門窗要素快速提取。本文提出的室內(nèi)重建方法可大幅度降低人工建模成本,提高RGB-D傳感器建模效率。本文以TUM公開的Kinect v1 RGB-D數(shù)據(jù)集及Structure Sensor數(shù)據(jù)集作為實驗數(shù)據(jù),部分Lidar點云作為絕對精度評估參考數(shù)據(jù)。為驗證本文提出多視圖像融合的RGB-D室內(nèi)三維測圖方法的精度及有效性,分別從相機(jī)軌跡精度,點云絕對精度,遠(yuǎn)近場景融合,及RGB-D點云三維重建能力四方面進(jìn)行精度評估。通過與現(xiàn)有主流RGB-D SLAM算法獲取的對比,結(jié)果顯示本文提出的3D SLAM系統(tǒng)獲取的相機(jī)軌跡精度更高且能適應(yīng)不同環(huán)境變化。將RGB-D獲取的點云與激光點云對比,實驗結(jié)果顯示在0-50m2范圍內(nèi),本文的3D SLAM方案獲取的RGB-D點云平均誤差在1cm以內(nèi),在0-70m2范圍內(nèi),點云平均誤差在5cm以下。通過近遠(yuǎn)距離三維場景融合實驗,結(jié)果顯示二三維特征點融合的光束法平差優(yōu)化方法可進(jìn)一步優(yōu)化相機(jī)軌跡,降低累積誤差,且可用于SFM恢復(fù)遠(yuǎn)距離場景可有效彌補(bǔ)深度傳感器量測距離短的缺陷。RGB-D室內(nèi)三維重建方面,實驗結(jié)果顯示本文提出的知識約束的RGB-D點云重建方法可準(zhǔn)確恢復(fù)出墻面,天花板,地板,門窗等室內(nèi)組建。
【學(xué)位授予單位】:武漢大學(xué)
【學(xué)位級別】:博士
【學(xué)位授予年份】:2017
【分類號】:TP391.41

【參考文獻(xiàn)】

中國期刊全文數(shù)據(jù)庫 前3條

1 付夢印;呂憲偉;劉彤;楊毅;李星河;李玉;;基于RGB-D數(shù)據(jù)的實時SLAM算法[J];機(jī)器人;2015年06期

2 全思博;李偉光;鄭少華;;基于RGB-D傳感器的車間三維場景建模[J];華南理工大學(xué)學(xué)報(自然科學(xué)版);2015年06期

3 賈松敏;王可;郭兵;李秀智;;基于RGB-D相機(jī)的移動機(jī)器人三維SLAM[J];華中科技大學(xué)學(xué)報(自然科學(xué)版);2014年01期



本文編號:1312237

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/1312237.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a4d64***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com