天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

結(jié)合法向信息的立體匹配研究

發(fā)布時(shí)間:2018-06-13 07:53

  本文選題:立體匹配 + 深度置信度 ; 參考:《浙江大學(xué)》2017年碩士論文


【摘要】:深度恢復(fù)是計(jì)算機(jī)視覺領(lǐng)域的基本問題,有著廣泛的應(yīng)用。.其中,基于雙目相機(jī)的立體匹配是最常用的深度恢復(fù)方式之一,有著重要的理論研究和實(shí)際應(yīng)用價(jià)值。傳統(tǒng)的雙目立體匹配算法在處理弱紋理和遮擋區(qū)域時(shí),容易因?yàn)槠ヅ淅щy而導(dǎo)致難以準(zhǔn)確地獲得其視差,也因此較難恢復(fù)出高質(zhì)量的深度。為了克服這些因?yàn)樽陨砥ヅ湫畔⒉蛔愣鴮?dǎo)致難以準(zhǔn)確獲得視差的情況,本文提出了一種結(jié)合法向信息預(yù)測的立體匹配視差恢復(fù)方法,通過求解同時(shí)含有法向和視差約束項(xiàng)的最小二乘線性方程組,將單張圖像的法向估計(jì)信息轉(zhuǎn)化為視差信息。為了達(dá)到這個(gè)目的,本文提出了基于平面假設(shè)的視差置信度估計(jì)算法來衡量視差值的可靠性,從而為視差求解提供稀疏的可靠視差點(diǎn),作為對視差絕對數(shù)值的約束。此外,還提出了針對視差跳變區(qū)域的邊界檢測和融合算法,以準(zhǔn)確地獲得視差不連續(xù)處的位置信息,從而能在視差平滑區(qū)域內(nèi)維持法向?qū)ο噜徬袼匾暡畲笮『妥兓募s束;在視差跳變處不使用法向約束,以保持視差的不連續(xù)性。最后對求得的視差圖進(jìn)行迭代優(yōu)化,在每一輪迭代中通過中值濾波補(bǔ)全視差圖,并優(yōu)化每一輪中的邊緣信息和視差約束點(diǎn)集。針對實(shí)時(shí)應(yīng)用需求,本文也提出了快速的版本,可以達(dá)到每秒一幀以上的計(jì)算速度。實(shí)驗(yàn)結(jié)果表明,本文提出的方法在對公開的測試數(shù)據(jù)集和視頻序列進(jìn)行立體匹配的過程中,均能夠有效地提高弱紋理和遮擋區(qū)域的視差質(zhì)量和深度恢復(fù)精確度。該方法具有較好的擴(kuò)展性和普適性,可以和多種立體匹配算法結(jié)合來提高深度恢復(fù)的質(zhì)量。
[Abstract]:Depth recovery is the basic problem in the field of computer vision. It has extensive application.. among them, stereo matching based on binocular camera is one of the most commonly used depth recovery methods. It has important theoretical research and practical application value. The traditional binocular stereo matching algorithm is difficult to match the weak texture and occlusion area because it is difficult to match. It is difficult to obtain the parallax accurately, and therefore it is difficult to recover the high quality. In order to overcome the difficulty of obtaining the parallax precisely because of the insufficient matching information, this paper proposes a stereo matching parallax method, which combines the normal and the parallax constraints. In order to achieve this goal, this paper proposes a parallax reliability estimation algorithm based on plane hypothesis to measure the reliability of parallax values, thus providing a sparse reliable parallax point for parallax solution as a constraint on absolute values of parallax. In addition, a boundary detection and fusion algorithm for parallax hopping region is proposed to obtain accurate location information of parallax discontinuities, so as to maintain the constraint on the parallax size and change of the adjacent pixels in the parallax smooth region, and keep the discontinuity of parallax in the parallax jump to maintain the discontinuity of the parallax. The parallax graph is iteratively optimized, and the parallax graph is complementing through median filtering in each round, and the edge information and the parallax constraint point set in each round are optimized. In view of the real-time application requirements, a fast version is also proposed in this paper, which can reach the calculation speed of more than one frame per second. The experimental results show that the method proposed in this paper is used in this paper. In the process of stereo matching of open test data sets and video sequences, the quality of parallax and depth recovery in the weak texture and occlusion region can be effectively improved. The method has good scalability and universality, and can be combined with a variety of stereo matching algorithms to improve the quality of the depth recovery.
【學(xué)位授予單位】:浙江大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2017
【分類號】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 夏利民,谷士文,孫星明;基于免疫算法的立體匹配[J];計(jì)算機(jī)工程;2001年05期

2 王肇捷,黃文劍;立體匹配的免疫算法[J];電腦與信息技術(shù);2001年04期

3 夏利民;谷士文;沈新權(quán);孫星明;;一種新穎的立體匹配方法[J];模式識別與人工智能;2001年04期

4 王小芳;閆光榮;雷毅;;彩色鏡像圖像的立體匹配方法[J];計(jì)算機(jī)工程;2008年18期

5 裴明濤;劉鵬;;一種基于圖割的快速立體匹配方法[J];北京理工大學(xué)學(xué)報(bào);2009年03期

6 盧思軍;唐振民;郭龍?jiān)?盧阿麗;;采用模糊判別的自適應(yīng)多窗口立體匹配[J];工程圖學(xué)學(xué)報(bào);2009年06期

7 李洪海;;一種改進(jìn)的快速立體匹配方法[J];自動(dòng)化與儀器儀表;2010年04期

8 林川;潘盛輝;韓峻峰;譚光興;李夢和;;基于區(qū)域的立體匹配優(yōu)化方法[J];計(jì)算機(jī)工程與設(shè)計(jì);2011年08期

9 胡楠;;立體匹配技術(shù)發(fā)展研究[J];信息通信;2012年05期

10 李竹林;張根耀;;基于特征的寬基線立體匹配技術(shù)研究[J];計(jì)算機(jī)技術(shù)與發(fā)展;2013年05期

相關(guān)會議論文 前10條

1 趙慧潔;雷彥章;姜宏志;;基于投影柵相位的立體匹配方法[A];第十三屆全國圖象圖形學(xué)學(xué)術(shù)會議論文集[C];2006年

2 劉曉麗;徐光柱;雷幫軍;孫水發(fā);馮德鴻;;立體匹配技術(shù)研究[A];'2010系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)會議論文集[C];2010年

3 王躍宗;劉沖;李德勝;;彩色顯微圖像立體匹配研究[A];中國微米、納米技術(shù)第七屆學(xué)術(shù)會年會論文集(一)[C];2005年

4 付麗琴;韓焱;;基于立體匹配技術(shù)的射線圖像三維信息重建技術(shù)研究[A];第十一屆中國體視學(xué)與圖像分析學(xué)術(shù)會議論文集[C];2006年

5 李竹林;趙宗濤;王文發(fā);馬燕;;一種缺失攝像機(jī)標(biāo)定參數(shù)圖像的立體匹配方法[A];第十三屆全國圖象圖形學(xué)學(xué)術(shù)會議論文集[C];2006年

6 周秀芝;王潤生;;基于自適應(yīng)窗口的稠密立體匹配[A];立體圖象技術(shù)及其應(yīng)用研討會論文集[C];2005年

7 賈濤;陳濤;楊潤奎;;基于仿射不變量的長基線立體匹配[A];第三屆全國信息獲取與處理學(xué)術(shù)會議論文集[C];2005年

8 左森;郭曉松;萬敬;郭君斌;;Graph Cuts及其在立體匹配中的應(yīng)用[A];立體圖象技術(shù)及其應(yīng)用研討會論文集[C];2005年

9 李剛;曾榮盛;韓建濤;陳曾平;;基于雙向SIFT的未標(biāo)定圖像的立體匹配[A];全國第4屆信號和智能信息處理與應(yīng)用學(xué)術(shù)會議論文集[C];2010年

10 紀(jì)松;范大昭;初艷鋒;楊靖宇;;線陣遙感影像多視立體匹配中VLL模型的擴(kuò)展[A];第十七屆全國測控計(jì)量儀器儀表學(xué)術(shù)年會(MCMI'2007)論文集(上冊)[C];2007年

相關(guān)博士學(xué)位論文 前10條

1 張康;基于圖像深度感知中的立體匹配和深度增強(qiáng)算法研究[D];清華大學(xué);2015年

2 黃經(jīng)州;高分辨率近似紋理圖像立體匹配技術(shù)研究[D];浙江大學(xué);2015年

3 柴登峰;面向三維可視通訊的立體匹配方法[D];浙江大學(xué);2006年

4 盧思軍;立體匹配關(guān)鍵技術(shù)研究[D];南京理工大學(xué);2011年

5 胡騰;基于多通道置信度傳播算法的航空核線影像稠密立體匹配研究[D];武漢大學(xué);2013年

6 李莉;基于偏微分方程的立體匹配問題研究[D];山東大學(xué);2011年

7 裴偉;顯微立體匹配及非接觸無損快速三維測量研究[D];大連理工大學(xué);2007年

8 葛亮;圖像建模中立體匹配問題的研究[D];重慶大學(xué);2009年

9 耿英楠;立體匹配技術(shù)的研究[D];吉林大學(xué);2014年

10 劉正東;計(jì)算機(jī)視覺中立體匹配技術(shù)的研究[D];南京理工大學(xué);2005年

相關(guān)碩士學(xué)位論文 前10條

1 王龍;攝像機(jī)標(biāo)定與立體匹配技術(shù)的研究[D];河北大學(xué);2015年

2 劉榮軍;寬基線密集立體匹配方法研究[D];昆明理工大學(xué);2015年

3 朱守信;基于立體匹配片的國產(chǎn)衛(wèi)星影像無縫立體測圖方法研究[D];中國地質(zhì)大學(xué)(北京);2015年

4 龐星;雙目立體匹配的理論研究及算法優(yōu)化[D];南京理工大學(xué);2015年

5 夏凱;雙目視覺立體匹配技術(shù)研究及其應(yīng)用[D];西安建筑科技大學(xué);2015年

6 王侃;人體頭部姿態(tài)參數(shù)測量[D];西安工業(yè)大學(xué);2015年

7 龔文彪;立體匹配技術(shù)的研究及其硬件化實(shí)現(xiàn)[D];南京理工大學(xué);2015年

8 邱明R,

本文編號:2013282


資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2013282.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶50331***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com