融合Kinect點(diǎn)云與光學(xué)影像數(shù)據(jù)的室內(nèi)三維建模
本文關(guān)鍵詞: Kinect Agisoft Photoscan軟件 數(shù)據(jù)融合 三維建模 出處:《中國(guó)地質(zhì)大學(xué)(北京)》2017年碩士論文 論文類型:學(xué)位論文
【摘要】:Kinect是微軟推出的融合彩色相機(jī)與深度相機(jī)的傳感器,最初應(yīng)用于體感游戲中。Kinect在獲取彩色影像的同時(shí)也能獲取三維激光點(diǎn)云數(shù)據(jù),相比傳統(tǒng)的三維激光掃描儀,具有價(jià)格低廉,操作簡(jiǎn)便等特點(diǎn),因此被研究者廣泛的應(yīng)用到了小場(chǎng)景的三維建模工作中。但與此同時(shí),Kinect也具有其不可避免的缺點(diǎn),其采集數(shù)據(jù)時(shí)深度感應(yīng)范圍有限,并且反射值高的部位無(wú)法得到點(diǎn)云,對(duì)于點(diǎn)云的拼接工作量大,傳統(tǒng)的點(diǎn)云拼接算法無(wú)法有效的應(yīng)用到Kinect獲取的點(diǎn)云數(shù)據(jù)中。本文是在融合了Kinect點(diǎn)云與光學(xué)影像數(shù)據(jù)的基礎(chǔ)上進(jìn)行的室內(nèi)三維場(chǎng)景的建模。首先利用Agisoft Photoscan軟件對(duì)Kinect獲得的彩色光學(xué)影像進(jìn)行處理從而獲得大量三維點(diǎn),將其與拼接完成后的Kinect點(diǎn)云進(jìn)行融合,經(jīng)過(guò)融合后的點(diǎn)云質(zhì)量有明顯改善,彌補(bǔ)了Kinect點(diǎn)云缺失嚴(yán)重的現(xiàn)象。然后分別針對(duì)室內(nèi)場(chǎng)景中不同的對(duì)象利用不同的方法對(duì)融合后的點(diǎn)云數(shù)據(jù)進(jìn)行分割等處理,并通過(guò)“孔洞算法”提取其邊界點(diǎn),最終將邊界點(diǎn)進(jìn)行規(guī)則化擬合處理從而完成室內(nèi)三維場(chǎng)景模型。本文的主要工作和創(chuàng)新點(diǎn)包括:1.搭建Kinect for windows2.0平臺(tái),采集室內(nèi)場(chǎng)景的彩色影像及點(diǎn)云數(shù)據(jù),并且通過(guò)Agisoft Photoscan軟件將彩色影像轉(zhuǎn)換成點(diǎn)云數(shù)據(jù)2.提出了融合Kinect和Photoscan點(diǎn)云數(shù)據(jù)的方法,提高點(diǎn)云精度,為室內(nèi)三維場(chǎng)景建模提供數(shù)據(jù)支持3.分別采用RANSAC和區(qū)域面生長(zhǎng)法對(duì)融合后的點(diǎn)云數(shù)據(jù)進(jìn)行分割,分析比較了兩種算法的優(yōu)缺點(diǎn)4.研究了基于點(diǎn)云對(duì)室內(nèi)三維場(chǎng)景中不同物體通過(guò)不同方法進(jìn)行幾何建模的方法,并對(duì)線框模型進(jìn)行紋理建模。實(shí)驗(yàn)結(jié)果表明,本文所提出的融合Kinect點(diǎn)云和光學(xué)影像數(shù)據(jù)進(jìn)行室內(nèi)建模的方法,能夠提供質(zhì)量較高的三維點(diǎn)云數(shù)據(jù)并且能得到較好的室內(nèi)三維模型,與傳統(tǒng)設(shè)備相比不僅降低了三維建模的費(fèi)用還提高了建模的自動(dòng)化程度。
[Abstract]:Kinect, a sensor from Microsoft that combines color cameras with depth cameras, was originally used in somatosensory games to capture color images as well as 3D laser point cloud data. Compared with the traditional 3D laser scanner, it has the characteristics of low cost and easy operation, so it has been widely used in the 3D modeling of small scenes, but at the same time. Kinect also has its inevitable shortcomings, its depth sensing range is limited when collecting data, and the point cloud can not be obtained in the part with high reflection value. The traditional point cloud mosaic algorithm can not be effectively applied to the point cloud data obtained by Kinect. This paper is based on the fusion of Kinect point cloud and optical image data to model the indoor 3D scene. First use Agisoft. The color optical image obtained by Kinect is processed by Photoscan software to obtain a large number of 3D points. After fusion with the Kinect point cloud after splicing, the quality of the point cloud is improved obviously. It makes up for the serious lack of point cloud in Kinect. Then it uses different methods to segment the fused point cloud data for different objects in the indoor scene. The boundary points are extracted by "hole algorithm". Finally, the boundary points are regularized to complete the indoor 3D scene model. The main work and innovation of this paper include: 1. Build the Kinect for windows2.0 platform. Collect indoor scene color image and point cloud data. And the color image is transformed into point cloud data by Agisoft Photoscan software. 2. The method of merging Kinect and Photoscan point cloud data is proposed. Improve the accuracy of point cloud, provide data support for indoor 3D scene modeling. RANSAC and area surface growth method are used to segment the fused point cloud data. 3. The advantages and disadvantages of the two algorithms are analyzed and compared. 4. The geometric modeling method of different objects in indoor 3D scene based on point cloud is studied, and the texture modeling of the wireframe model is carried out. The experimental results show that. The method of integrating Kinect point cloud and optical image data for indoor modeling can provide high quality 3D point cloud data and obtain better indoor 3D model. Compared with traditional equipment, it not only reduces the cost of 3D modeling, but also improves the automation of modeling.
【學(xué)位授予單位】:中國(guó)地質(zhì)大學(xué)(北京)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP212;TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 梁新合;宋志真;;改進(jìn)的點(diǎn)云精確匹配技術(shù)[J];裝備制造技術(shù);2008年03期
2 葉愛(ài)芬;龔聲蓉;王朝暉;劉純平;;基于隨機(jī)分布估計(jì)的點(diǎn)云密度提取[J];計(jì)算機(jī)工程;2009年04期
3 梁新合;梁晉;郭成;曹巨明;;法向約束的多幅點(diǎn)云數(shù)據(jù)融合算法[J];西安交通大學(xué)學(xué)報(bào);2009年05期
4 孟凡文;吳祿慎;;用繼承與優(yōu)化算法精密拼接無(wú)序點(diǎn)云[J];光學(xué)精密工程;2009年04期
5 李海亮;鄧非;李剛;;攝影測(cè)量激光點(diǎn)云空洞修補(bǔ)[J];測(cè)繪科學(xué);2010年05期
6 張晶;楊云生;豐少偉;;基于點(diǎn)云法矢變化的點(diǎn)云簡(jiǎn)化方法研究[J];計(jì)算機(jī)與數(shù)字工程;2011年12期
7 李曉久;景曉寧;;基于非接觸式測(cè)量的人體點(diǎn)云簡(jiǎn)化方法[J];紡織學(xué)報(bào);2012年07期
8 高恩陽(yáng);鄭昊鴻;;點(diǎn)云數(shù)據(jù)濾波方法綜述[J];科技資訊;2012年33期
9 范然;金小剛;;大規(guī)模點(diǎn)云選擇及精簡(jiǎn)[J];圖學(xué)學(xué)報(bào);2013年03期
10 李偉;李旭東;趙慧潔;張穎;;基于姿態(tài)標(biāo)準(zhǔn)化的線特征點(diǎn)云提取方法[J];北京航空航天大學(xué)學(xué)報(bào);2013年08期
相關(guān)會(huì)議論文 前10條
1 李文濤;韋群;楊海龍;;基于圖像的點(diǎn)云生成和預(yù)處理[A];2011年全國(guó)通信安全學(xué)術(shù)會(huì)議論文集[C];2011年
2 蔡來(lái)良;李儒;;點(diǎn)云數(shù)據(jù)處理算法與實(shí)現(xiàn)初步研究[A];第四屆“測(cè)繪科學(xué)前沿技術(shù)論壇”論文精選[C];2012年
3 馬國(guó)慶;陶萍萍;楊周旺;;點(diǎn)云空間曲線的微分信息計(jì)算及匹配方法[A];第四屆全國(guó)幾何設(shè)計(jì)與計(jì)算學(xué)術(shù)會(huì)議論文集[C];2009年
4 江倩殷;劉忠途;李熙瑩;;一種有效的點(diǎn)云精簡(jiǎn)算法[A];第十五屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年
5 解輝;張愛(ài)武;孟憲剛;;機(jī)載激光點(diǎn)云快速繪制方法[A];第二十五屆全國(guó)空間探測(cè)學(xué)術(shù)研討會(huì)摘要集[C];2012年
6 李凱;張愛(ài)武;;基于激光點(diǎn)云的糧倉(cāng)儲(chǔ)糧數(shù)量測(cè)量方法[A];第二屆“測(cè)繪科學(xué)前沿技術(shù)論壇”論文精選[C];2010年
7 朱曉強(qiáng);余燁;劉曉平;袁曉輝;Bill P.Buckles;;基于航拍圖像和LiDAR點(diǎn)云的城市道路提取[A];全國(guó)第19屆計(jì)算機(jī)技術(shù)與應(yīng)用(CACIS)學(xué)術(shù)會(huì)議論文集(上冊(cè))[C];2008年
8 劉虎;;基于線性八叉樹(shù)的點(diǎn)云簡(jiǎn)化與特征提取研究[A];促進(jìn)科技經(jīng)濟(jì)結(jié)合,服務(wù)創(chuàng)新驅(qū)動(dòng)發(fā)展——蚌埠市科協(xié)2012年度學(xué)術(shù)年會(huì)論文集[C];2012年
9 李濱;王佳;;基于點(diǎn)云的建筑測(cè)繪信息提取[A];第四屆“測(cè)繪科學(xué)前沿技術(shù)論壇”論文精選[C];2012年
10 楊雪春;;反求工程建模中點(diǎn)云切片技術(shù)研究[A];全國(guó)先進(jìn)制造技術(shù)高層論壇暨第八屆制造業(yè)自動(dòng)化與信息化技術(shù)研討會(huì)論文集[C];2009年
相關(guān)重要報(bào)紙文章 前2條
1 曹裕華 高化猛 江鴻賓;激光點(diǎn)云 亦真亦幻[N];解放軍報(bào);2013年
2 中國(guó)工程院院士 劉先林;四維遠(yuǎn)見(jiàn)的裝備創(chuàng)新[N];中國(guó)測(cè)繪報(bào);2012年
相關(guān)博士學(xué)位論文 前10條
1 彭檢貴;融合點(diǎn)云與高分辨率影像的城區(qū)道路提取與表面重建研究[D];武漢大學(xué);2012年
2 劉涌;基于連續(xù)序列自動(dòng)快速拼接的全方位三維測(cè)量技術(shù)研究[D];西南交通大學(xué);2013年
3 賴祖龍;基于LiDAR點(diǎn)云與影像的海岸線提取和地物分類研究[D];武漢大學(xué);2013年
4 王瑞巖;計(jì)算機(jī)視覺(jué)中相機(jī)標(biāo)定及點(diǎn)云配準(zhǔn)技術(shù)研究[D];西安電子科技大學(xué);2015年
5 段敏燕;機(jī)載激光雷達(dá)點(diǎn)云電力線三維重建方法研究[D];武漢大學(xué);2015年
6 李艷紅;車(chē)載移動(dòng)測(cè)量系統(tǒng)數(shù)據(jù)配準(zhǔn)與分類識(shí)別關(guān)鍵技術(shù)研究[D];武漢大學(xué);2014年
7 崔婷婷;結(jié)合車(chē)載點(diǎn)云和全景影像的建筑物立面重建[D];武漢大學(xué);2015年
8 戴玉成;基于UAV傾斜影像匹配點(diǎn)云的城市建筑物信息提取方法研究[D];中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院遙感與數(shù)字地球研究所);2017年
9 龔珍;地面三維激光掃描點(diǎn)云場(chǎng)景重建方法研究[D];中國(guó)地質(zhì)大學(xué);2017年
10 韓峰;基于點(diǎn)云信息的既有鐵路狀態(tài)檢測(cè)與評(píng)估技術(shù)研究[D];西南交通大學(xué);2015年
相關(guān)碩士學(xué)位論文 前10條
1 龔碩然;基于Delaunay三角剖分的點(diǎn)云三維網(wǎng)格重構(gòu)[D];河北大學(xué);2015年
2 楊紅粉;頻域技術(shù)應(yīng)用于點(diǎn)云配準(zhǔn)研究[D];北京建筑大學(xué);2015年
3 段紅娟;點(diǎn)云圖像交互式曲線骨架提取技術(shù)及其應(yīng)用[D];西南交通大學(xué);2015年
4 張永恒;散亂點(diǎn)云數(shù)據(jù)配準(zhǔn)方法研究[D];長(zhǎng)安大學(xué);2015年
5 吳愛(ài);面向特征擬合的點(diǎn)云簡(jiǎn)化方法研究[D];中國(guó)地質(zhì)大學(xué)(北京);2015年
6 薛廣順;基于立體視覺(jué)的牛體點(diǎn)云獲取方法研究與實(shí)現(xiàn)[D];西北農(nóng)林科技大學(xué);2015年
7 胡誠(chéng);精度約束下地表LiDAR點(diǎn)云抽稀方法研究[D];西南交通大學(xué);2015年
8 余明;三維離散點(diǎn)云數(shù)據(jù)處理技術(shù)研究[D];南京理工大學(xué);2015年
9 陳星宇;基于三維彩色點(diǎn)云的地形分類方法研究[D];南京理工大學(xué);2015年
10 朱東方;基于復(fù)雜拓?fù)浣Y(jié)構(gòu)點(diǎn)云的曲線擬合研究與應(yīng)用[D];山東大學(xué);2015年
,本文編號(hào):1471943
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/1471943.html