基于相位編碼結(jié)構(gòu)光的深度獲取研究
本文關(guān)鍵詞: 深度獲取 結(jié)構(gòu)光 相位編碼 雙目匹配 出處:《西安電子科技大學(xué)》2014年碩士論文 論文類型:學(xué)位論文
【摘要】:在高度自動(dòng)化、高度信息化的當(dāng)今世界,三維信息的應(yīng)用場景已經(jīng)越來越廣泛,并開始深刻地改變著人們的生活,如無人汽車、體感游戲儀和3D打印機(jī)的實(shí)現(xiàn)及應(yīng)用。如今,針對(duì)各種場景的深度信息獲取技術(shù)已成為現(xiàn)階段的研究重點(diǎn)及難點(diǎn)。本文在對(duì)現(xiàn)有深度獲取方法進(jìn)行研究的基礎(chǔ)上,提出了兩種基于相位編碼結(jié)構(gòu)光的深度獲取技術(shù)。第一種方法中使用了單幀混頻相位編碼結(jié)構(gòu)光,可用來實(shí)現(xiàn)動(dòng)態(tài)場景下的稠密深度獲取。且與前人方法不同,該方法利用顏色及強(qiáng)度的變化來對(duì)雙頻相位進(jìn)行編碼,避免了傅里葉頻譜分離的問題,使得分頻變得更加容易。同時(shí)該方法僅采用一幅模板,即實(shí)現(xiàn)了基于余數(shù)定理的相位快速展開,可應(yīng)用于動(dòng)態(tài)場景之中。此外,為增加方法魯棒性,在進(jìn)行相位展開過程中,該方法充分利用了鄰域信息,以克服由余數(shù)定理引起的測量敏感性。該方法在使用單幅模版、不增加設(shè)備復(fù)雜性的情況下,有效地提高了相位展開的速度,實(shí)現(xiàn)了適用于動(dòng)態(tài)場景的高精度、高分辨率的深度信息獲取。經(jīng)過實(shí)際實(shí)驗(yàn)驗(yàn)證,該方法對(duì)于表面深度多變物體、復(fù)雜物體邊緣,本算法均有較強(qiáng)的魯棒性,且對(duì)彩色場景、動(dòng)態(tài)場景也能實(shí)現(xiàn)精確深度測量。實(shí)驗(yàn)結(jié)果表明,相對(duì)于Kinect和ToF兩種商用深度獲取設(shè)備來說,該方法有著更高的精度。第二種方法采用了基于相位編碼的主被動(dòng)結(jié)合式深度測量。該方法基于經(jīng)典相移(Phase-Shift)三維輪廓測量法,進(jìn)行主動(dòng)結(jié)構(gòu)光投射,解碼時(shí),則利用場景自身特征進(jìn)行被動(dòng)雙目匹配和相移模板進(jìn)行結(jié)構(gòu)光主動(dòng)測距,進(jìn)行主被動(dòng)聯(lián)合解碼。該方法解決了傳統(tǒng)三幀三維輪廓測量法中出現(xiàn)的無法對(duì)孤立相位進(jìn)行正確展開,從而無法正確估計(jì)場景深度的問題;同時(shí)通過聯(lián)合利用場景特征及變形的模板特征,增加了深度測量的魯棒性,降低了相位展開的時(shí)間復(fù)雜度,大大加速了高精度結(jié)構(gòu)光測距過程。經(jīng)實(shí)驗(yàn)驗(yàn)證,該方法測量精度高,魯棒性強(qiáng),對(duì)物體顏色信息不敏感,可廣泛用于靜態(tài)及慢速運(yùn)動(dòng)場景,如室內(nèi)建模等。且只要投影及拍攝設(shè)備的幀率達(dá)到一定要求,該方法也可適應(yīng)動(dòng)態(tài)場景的需要。
[Abstract]:In the highly automated and highly information-based world, the application of three-dimensional information scene has become more and more extensive, and has begun to profoundly change people's lives, such as unmanned cars. The realization and application of somatosensory gameplay and 3D printer. Depth information acquisition technology for various scenes has become the focus and difficulty of the research at this stage. Based on the research on the existing depth acquisition methods. Two depth acquisition techniques based on phase-coded structured light are proposed. In the first method, single-frame mixed-phase coded structured light is used to achieve dense depth acquisition in dynamic scenes, which is different from previous methods. The method uses the change of color and intensity to encode the dual-frequency phase, which avoids the problem of Fourier spectrum separation and makes the frequency division easier. At the same time, the method uses only one template. In addition, in order to increase the robustness of the method, the method makes full use of the neighborhood information in the phase unwrapping process. In order to overcome the sensitivity caused by residue theorem, this method can effectively improve the speed of phase unwrapping and realize the high accuracy of dynamic scene by using single template without increasing the complexity of equipment. High resolution depth information acquisition. The experimental results show that the method is robust to the surface depth and complex object edge, and is robust to the color scene. Dynamic scene can also achieve accurate depth measurement. Experimental results show that compared with Kinect and ToF commercial depth acquisition equipment. The method has higher accuracy. The second method is based on phase coding combined with active and passive depth measurement. This method is based on the classical phase shift Phase-Shift 3D profile measurement method. For active structured light projection and decoding, passive binocular matching and phase-shifting template are used to carry out active structural light ranging. This method solves the problem that the isolated phase can not be expanded correctly and the depth of the scene can not be estimated correctly in the traditional three-frame 3D contour measurement method. At the same time, the robustness of depth measurement is increased, the time complexity of phase unwrapping is reduced, and the high precision structured light ranging process is greatly accelerated by using scene features and deformed template features. This method has the advantages of high measurement accuracy, strong robustness and insensitivity to object color information. It can be widely used in static and slow moving scenes, such as indoor modeling, and the frame rate of projection and shooting equipment can meet certain requirements. The method can also meet the needs of dynamic scenes.
【學(xué)位授予單位】:西安電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2014
【分類號(hào)】:TN911.2
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 王宇超;楊旭波;曾亮;;一種新的不可見結(jié)構(gòu)光算法[J];微計(jì)算機(jī)信息;2009年26期
2 瞿丹;周莉萍;徐龍;陳良洲;干江紅;;一種新型近似無衍射柵型結(jié)構(gòu)光及其實(shí)現(xiàn)方法[J];光電工程;2010年09期
3 高黎黎;盧韶芳;張啟勃;;結(jié)構(gòu)光編碼的動(dòng)態(tài)程序設(shè)計(jì)[J];重慶科技學(xué)院學(xué)報(bào)(自然科學(xué)版);2011年05期
4 邵健,李德華,胡漢平;一種新的結(jié)構(gòu)光定標(biāo)方法[J];計(jì)算機(jī)與數(shù)字工程;2002年02期
5 胡斌,李德華,金剛,胡漢平;基于方向模板的結(jié)構(gòu)光條紋中心檢測方法[J];計(jì)算機(jī)工程與應(yīng)用;2002年11期
6 郝麗俊;程勝;楊榮騫;陳亞珠;;投影結(jié)構(gòu)光空間位置和形狀的標(biāo)定方法研究[J];光電子.激光;2007年07期
7 許麗;曾丹;張之江;;結(jié)構(gòu)光測量系統(tǒng)誤差分析[J];光電工程;2008年10期
8 王偉華;孫軍華;劉震;張廣軍;;鋼軌磨耗動(dòng)態(tài)測量結(jié)構(gòu)光條紋中心提取算法[J];激光與紅外;2010年01期
9 胡恢軍;喻擎蒼;史明強(qiáng);魯正;;符號(hào)M陣列面結(jié)構(gòu)光窗口匹配方法研究[J];工業(yè)控制計(jì)算機(jī);2011年07期
10 梅天燦;仲思東;何對(duì)燕;;可變環(huán)境光照條件下的結(jié)構(gòu)光條紋檢測[J];儀器儀表學(xué)報(bào);2011年12期
相關(guān)會(huì)議論文 前10條
1 李春艷;范生宏;王立;盧欣;陳繼華;;月球車結(jié)構(gòu)光視覺系統(tǒng)標(biāo)定方法研究[A];第二十三屆全國空間探測學(xué)術(shù)交流會(huì)論文摘要集[C];2010年
2 陶俊;;基于投影器和結(jié)構(gòu)光的人臉曲面三維重建[A];第十三屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2006年
3 孫勇;李原;王慶林;陳輝;;基于主動(dòng)投影的結(jié)構(gòu)光視覺系統(tǒng)的標(biāo)定[A];中國自動(dòng)化學(xué)會(huì)控制理論專業(yè)委員會(huì)D卷[C];2011年
4 崔海華;王震;廖文和;戴寧;程筱勝;;一種新的基于結(jié)構(gòu)光的三維測量模型[A];中國幾何設(shè)計(jì)與計(jì)算新進(jìn)展2007——第三屆中國幾何設(shè)計(jì)與計(jì)算大會(huì)論文集[C];2007年
5 盧鵬;劉小英;張武昕;;三維重建結(jié)構(gòu)光邊緣提取的方法[A];中國儀器儀表學(xué)會(huì)第九屆青年學(xué)術(shù)會(huì)議論文集[C];2007年
6 史玉升;李中偉;鐘凱;王從軍;;基于數(shù)字光柵投影的結(jié)構(gòu)光三維測量技術(shù)[A];2009年促進(jìn)中部崛起專家論壇暨第五屆湖北科技論壇——裝備制造產(chǎn)業(yè)發(fā)展論壇論文集(下)[C];2009年
7 史玉升;李中偉;鐘凱;王從軍;;基于數(shù)字光柵投影的結(jié)構(gòu)光三維測量技術(shù)[A];科技支撐 科學(xué)發(fā)展——2009年促進(jìn)中部崛起專家論壇暨第五屆湖北科技論壇文集[C];2009年
8 孫良海;楊運(yùn)強(qiáng);黃洪昌;李杰;;激光結(jié)構(gòu)光焊縫跟蹤高效圖像處理算法的研究[A];機(jī)械動(dòng)力學(xué)理論及其應(yīng)用[C];2011年
9 陶俊;;基于結(jié)構(gòu)光的三維曲面建模及其紋理自動(dòng)繪制[A];幾何設(shè)計(jì)與計(jì)算的新進(jìn)展[C];2005年
10 宋明;張?jiān)品?;用簡單的結(jié)構(gòu)光測量高速車體的限界[A];第八屆全國信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2010年
相關(guān)博士學(xué)位論文 前9條
1 張萬禎;數(shù)字投影結(jié)構(gòu)光三維測量方法研究[D];浙江大學(xué);2015年
2 叢鵬宇;基于結(jié)構(gòu)光的三維感知系統(tǒng)關(guān)鍵問題研究[D];北京理工大學(xué);2015年
3 唐蘇明;三維曲面測量的編碼結(jié)構(gòu)光技術(shù)研究[D];上海大學(xué);2015年
4 李冠楠;直齒圓柱齒輪漸開線齒廓的結(jié)構(gòu)光視覺測量技術(shù)[D];吉林大學(xué);2014年
5 陳建玲;結(jié)構(gòu)光照明超分辨微分干涉相襯顯微成像技術(shù)[D];華中科技大學(xué);2013年
6 范劍英;結(jié)構(gòu)光深度圖像獲取和處理與三維重建研究[D];哈爾濱理工大學(xué);2010年
7 李中偉;基于數(shù)字光柵投影的結(jié)構(gòu)光三維測量技術(shù)與系統(tǒng)研究[D];華中科技大學(xué);2009年
8 喻擎蒼;基于符號(hào)M陣列二值結(jié)構(gòu)光的三維檢測方法的研究[D];浙江大學(xué);2007年
9 李彩林;基于結(jié)構(gòu)光的手持式攝影掃描系統(tǒng)關(guān)鍵技術(shù)研究[D];武漢大學(xué);2011年
相關(guān)碩士學(xué)位論文 前10條
1 郭敬;基于結(jié)構(gòu)光和NRSFM的三維數(shù)字化技術(shù)研究[D];陜西科技大學(xué);2015年
2 吳琳琳;基于結(jié)構(gòu)光投影法的空間障礙物探測方法研究[D];西安工業(yè)大學(xué);2015年
3 劉芳芳;基于偽隨機(jī)編碼結(jié)構(gòu)光的三維重建技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2015年
4 俞寶清;基于雙目結(jié)構(gòu)光的快速三維成像系統(tǒng)研究[D];浙江大學(xué);2015年
5 趙必玉;高精度面結(jié)構(gòu)光三維測量方法研究[D];電子科技大學(xué);2015年
6 程偉;基于結(jié)構(gòu)光視覺的番茄果實(shí)識(shí)別定位系統(tǒng)設(shè)計(jì)[D];浙江工業(yè)大學(xué);2014年
7 劉歡;實(shí)時(shí)彩色三維建模技術(shù)研究[D];電子科技大學(xué);2015年
8 高山;基于相位編碼結(jié)構(gòu)光的深度獲取研究[D];西安電子科技大學(xué);2014年
9 錢鉞;線性無衍射結(jié)構(gòu)光實(shí)現(xiàn)方法的理論與實(shí)驗(yàn)研究[D];華中科技大學(xué);2007年
10 張文;無衍射結(jié)構(gòu)光理論及實(shí)現(xiàn)方法研究[D];華中科技大學(xué);2005年
,本文編號(hào):1488937
本文鏈接:http://sikaile.net/kejilunwen/wltx/1488937.html