天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于單目圖像序列的場景稠密三維重建技術(shù)研究

發(fā)布時(shí)間:2018-11-10 12:06
【摘要】:基于圖像序列的場景三維重建技術(shù)是計(jì)算機(jī)視覺領(lǐng)域中的一個(gè)重要研究課題。它用目標(biāo)的二維圖像序列和攝像機(jī)內(nèi)外參數(shù)來恢復(fù)物體的三維信息。與傳統(tǒng)的利用激光三維掃描或建模軟件得到三維模型的方法相比,基于圖像序列的三維重建方法具有重建約束限制條件少、自動化程度高、成本低、適宜對大尺度場景進(jìn)行重建的優(yōu)點(diǎn)。因此,該方法在逆向工程、機(jī)器人定位與導(dǎo)航、虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)、增強(qiáng)虛擬環(huán)境以及軍事等領(lǐng)域具有廣闊的應(yīng)用前景。然而長期實(shí)踐表明,基于圖像序列的三維重建方法面臨著諸多難題,如攝像機(jī)外參標(biāo)定技術(shù)的算法復(fù)雜且準(zhǔn)確度不高,無法對攝像機(jī)位姿提供精確的估計(jì),不準(zhǔn)確的特征匹配導(dǎo)致得不到精確的三維信息。圖像特征點(diǎn)檢測與匹配算法,面對非合作環(huán)境,難以在弱紋理或紋理重復(fù)區(qū)域檢測和匹配可靠的特征點(diǎn)對,致使點(diǎn)云和曲面層次上的重構(gòu)都出現(xiàn)較大的失真,重建目標(biāo)表面出現(xiàn)空洞現(xiàn)象嚴(yán)重,這成為突出的技術(shù)性障礙。此外,在圖像特征匹配過程中的特征點(diǎn)匹配對數(shù)與運(yùn)算速度也很難兼顧。本文針對上述問題展開了研究,主要貢獻(xiàn)有:(1)設(shè)計(jì)了一種基于運(yùn)動法的攝像機(jī)位姿跟蹤算法,采用SIFT算法進(jìn)行圖像特征點(diǎn)的檢測與匹配,運(yùn)用基于RANSAC框架的五點(diǎn)算法估計(jì)兩視圖下攝像機(jī)的相對位姿,采用基于RANSAC框架的透視N點(diǎn)法進(jìn)行多視圖位姿跟蹤,有效提高了位姿估計(jì)精度。(2)提出了一種基于光流反饋的稠密三維重建方法,能夠?qū)崿F(xiàn)對場景準(zhǔn)確、快速的三維立體化建模。采用TV-L1光流算法建立更加穩(wěn)健的同名像點(diǎn)匹配關(guān)系,對得到的稠密匹配點(diǎn)進(jìn)行采樣,進(jìn)而構(gòu)建稀疏點(diǎn)云和初始網(wǎng)格。從運(yùn)動視覺分析的角度尋求多視重構(gòu)的求解方法,將重建模型反饋至重建過程,用各視圖像的偏差驅(qū)動模型變形。將粗糙的、不準(zhǔn)確的原始網(wǎng)格曲面經(jīng)過致密的非剛性變形,調(diào)整為精確的曲面。(3)在統(tǒng)一設(shè)備架構(gòu)下,利用圖形處理器(GPU)對重建算法中的光流匹配、合成圖像、網(wǎng)格調(diào)整等部分進(jìn)行并行加速,顯著提高了重構(gòu)算法的實(shí)時(shí)性。本文針對三維重建中的外參求解精度、特征匹配準(zhǔn)確度、三維重建的稠密性、重建算法的實(shí)時(shí)性等問題,提出了有效的解決方案。室內(nèi)真實(shí)場景下的重建結(jié)果證明了所提算法的可行性和準(zhǔn)確性。
[Abstract]:Scene 3D reconstruction based on image sequence is an important research topic in the field of computer vision. It uses the object's two-dimensional image sequence and the camera's inside and outside parameters to restore the object's three-dimensional information. Compared with the traditional method of obtaining 3D model by laser scanning or modeling software, 3D reconstruction method based on image sequence has fewer constraints, higher automation and lower cost. It is suitable for large scale scene reconstruction. Therefore, this method has a broad application prospect in reverse engineering, robot positioning and navigation, virtual reality, enhanced virtual environment, military and other fields. However, long-term practice shows that the 3D reconstruction method based on image sequence faces many difficulties, such as the complexity and inaccuracy of camera external parameter calibration technology, which can not provide accurate estimation of camera pose. Inaccurate feature matching results in the lack of accurate 3D information. In the face of non-cooperative environment, it is difficult to detect and match reliable feature point pairs in weak texture or texture repeat regions in image feature point detection and matching algorithm, which results in a large distortion of point cloud and surface level reconstruction. The appearance of void on the surface of the reconstructed target is serious, which becomes a prominent technical obstacle. In addition, it is difficult to match logarithm and operation speed of feature points in the process of image feature matching. The main contributions of this paper are as follows: (1) A camera pose tracking algorithm based on motion method is designed. SIFT algorithm is used to detect and match the image feature points. The five-point algorithm based on RANSAC framework is used to estimate the relative pose of the camera in two views, and the perspective N-point method based on RANSAC framework is used to track the position and pose of multi-view. The accuracy of pose estimation is improved effectively. (2) A dense 3D reconstruction method based on optical flow feedback is proposed, which can realize accurate and fast 3D 3D modeling. The TV-L1 optical flow algorithm is used to establish a more robust matching relation of the image points with the same name. The dense matching points are sampled and the sparse point clouds and initial grids are constructed. From the point of view of motion vision analysis, the solution of multi-view reconstruction is sought, and the reconstruction model is fed back to the reconstruction process, and the model deformation is driven by the deviation of each visual image. The rough and inaccurate original mesh surface is adjusted to the precise surface through dense non-rigid deformation. (3) under the unified equipment architecture, the (GPU) is used to match the optical flow in the reconstruction algorithm, and the image is synthesized. Grid adjustment and other parts of the parallel acceleration, significantly improve the real-time reconstruction algorithm. In this paper, an effective solution is proposed to solve the problems such as the precision of extrinsic parameter solution, the accuracy of feature matching, the density of 3D reconstruction and the real-time performance of reconstruction algorithm. The results of indoor real scene reconstruction prove the feasibility and accuracy of the proposed algorithm.
【學(xué)位授予單位】:北京工業(yè)大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 汪亞明;基于計(jì)算機(jī)圖像序列的人體步態(tài)參數(shù)的快速獲取方法[J];電子技術(shù)應(yīng)用;2000年08期

2 汪亞明,汪元美,樓正國;單目人體圖像序列的運(yùn)動及結(jié)構(gòu)參數(shù)估計(jì)[J];軟件學(xué)報(bào);2001年11期

3 鐘偉,余松煜,芮雨;圖像序列處理中的形態(tài)分割方法[J];上海交通大學(xué)學(xué)報(bào);2001年09期

4 汪亞明,趙勻;基于動態(tài)圖像序列的下肢運(yùn)動參數(shù)測量[J];計(jì)算機(jī)自動測量與控制;2002年09期

5 曹立;基于模型的運(yùn)動表示用于圖像序列的處理[J];計(jì)算機(jī)工程與應(yīng)用;2003年27期

6 成衛(wèi);茍光磊;閆河;;一種實(shí)現(xiàn)醫(yī)學(xué)數(shù)字圖像序列高速存取的實(shí)用方法[J];重慶工學(xué)院學(xué)報(bào);2005年11期

7 任勇,成衛(wèi);醫(yī)學(xué)數(shù)字圖像序列高速存取的實(shí)用方法[J];重慶大學(xué)學(xué)報(bào)(自然科學(xué)版);2005年03期

8 雷曉春;江澤濤;趙榮椿;黎明;馬萬里;;基于圖像序列的射影重構(gòu)[J];計(jì)算機(jī)應(yīng)用研究;2007年02期

9 張愛華;王亮;;基于時(shí)變圖像序列的脈搏信息提取[J];儀器儀表學(xué)報(bào);2007年05期

10 鄒謀炎;劉艷;曹瑛;盧曉鵬;杜坤;;一種新的圖像序列失真模型:動態(tài)偏移場模型[J];電子與信息學(xué)報(bào);2008年09期

相關(guān)會議論文 前10條

1 徐晗路;李曉峰;;基于圖像序列中微弱運(yùn)動目標(biāo)的檢測[A];2008年中國西部青年通信學(xué)術(shù)會議論文集[C];2008年

2 李林;紀(jì)仲秋;;如何消除運(yùn)動圖像序列的上下抖動[A];第十六屆全國運(yùn)動生物力學(xué)學(xué)術(shù)交流大會(CABS 2013)論文集[C];2013年

3 姜翰青;章國鋒;董子龍;華煒;劉新國;鮑虎軍;;基于圖像序列的交互式快速建模系統(tǒng)[A];中國計(jì)算機(jī)圖形學(xué)進(jìn)展2008--第七屆中國計(jì)算機(jī)圖形學(xué)大會論文集[C];2008年

4 魏交統(tǒng);陳平;潘晉孝;;一種變能量DR圖像序列融合的圖像選擇方法[A];第十三屆中國體視學(xué)與圖像分析學(xué)術(shù)會議論文集[C];2013年

5 潘永泉;;基于神經(jīng)網(wǎng)絡(luò)的圖像序列參數(shù)估計(jì)方法[A];1994中國控制與決策學(xué)術(shù)年會論文集[C];1994年

6 謝志宏;魏磊;孟祥偉;汪熙;;一種基于圖像序列的結(jié)構(gòu)化道路識別算法[A];第六屆全國信號和智能信息處理與應(yīng)用學(xué)術(shù)會議論文集[C];2012年

7 于俊偉;薛文芳;常紅星;;基于計(jì)算機(jī)視覺的航天器圖像序列仿真[A];'2006系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)交流會論文集[C];2006年

8 侯志強(qiáng);張群;;圖像序列分析中一種有效的背景重構(gòu)算法[A];第六屆全國信息獲取與處理學(xué)術(shù)會議論文集(1)[C];2008年

9 陳曦;韓金芬;劉紹從;尚為;張少茹;;基于運(yùn)動圖像序列的煙花爆竹炸點(diǎn)目標(biāo)飛行的檢測[A];2006中國控制與決策學(xué)術(shù)年會論文集[C];2006年

10 趙榮椿;王兵;蔣曉悅;;基于圖像序列的運(yùn)動估計(jì)[A];全國第一屆嵌入式技術(shù)聯(lián)合學(xué)術(shù)會議論文集[C];2006年

相關(guān)博士學(xué)位論文 前10條

1 魏交統(tǒng);基于變電壓圖像序列盲分離的X射線多譜CT成像[D];中北大學(xué);2016年

2 周寧;復(fù)雜圖像序列中微弱運(yùn)動目標(biāo)檢測技術(shù)研究[D];電子科技大學(xué);2009年

3 賀禮;聯(lián)合彈性特性的乳腺超聲圖像序列診斷分析[D];中國科學(xué)技術(shù)大學(xué);2009年

4 陳昌紅;動態(tài)圖像序列建模與分類及其在人體運(yùn)動分析中的應(yīng)用[D];西安電子科技大學(xué);2009年

5 孫春鳳;基于并行處理的高速圖像序列運(yùn)動目標(biāo)檢測技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2011年

6 李謙;基于低秩稀疏的圖像序列增強(qiáng)技術(shù)研究[D];中國科學(xué)技術(shù)大學(xué);2015年

7 吳婧;桌面圖像序列編碼方法的研究[D];浙江大學(xué);2009年

8 李鵬;低幀頻圖像序列目標(biāo)提取關(guān)鍵技術(shù)研究[D];國防科學(xué)技術(shù)大學(xué);2012年

9 潘寧;膠囊內(nèi)鏡圖像序列冗余數(shù)據(jù)篩查方法研究[D];華中科技大學(xué);2013年

10 鄭世友;動態(tài)場景圖像序列中運(yùn)動目標(biāo)檢測與跟蹤[D];東南大學(xué);2006年

相關(guān)碩士學(xué)位論文 前10條

1 李聰;圖像序列三維重建方法研究與實(shí)現(xiàn)[D];清華大學(xué);2014年

2 胡曉星;基于圖像序列的中國古建筑快速三維重建[D];西安工業(yè)大學(xué);2015年

3 張宇哲;基于圖像序列的生理信號檢測[D];北京理工大學(xué);2015年

4 毛海群;基于IVUS圖像序列的關(guān)鍵幀提取及臨床應(yīng)用研究[D];南方醫(yī)科大學(xué);2015年

5 周東;一種基于圖像序列的自動化3D模型重建系統(tǒng)[D];哈爾濱工業(yè)大學(xué);2016年

6 吳冬暉;基于圖像序列的融合方法研究[D];南昌航空大學(xué);2015年

7 闞保柱;基于RTCam高精度s因子求解的研究[D];西安電子科技大學(xué);2014年

8 廖謙;極光圖像序列事件檢測研究[D];西安電子科技大學(xué);2014年

9 鄭煥彰;醫(yī)學(xué)圖像序列中腹腔主動脈瘤分割研究[D];浙江工業(yè)大學(xué);2015年

10 王立欣;血管內(nèi)超聲圖像序列自動檢索系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D];華北電力大學(xué);2015年



本文編號:2322428

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2322428.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶4acad***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com