天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于4D光場數(shù)據(jù)的深度信息獲取

發(fā)布時間:2017-07-04 03:11

  本文關(guān)鍵詞:基于4D光場數(shù)據(jù)的深度信息獲取


  更多相關(guān)文章: 深度估計 四維光場數(shù)據(jù) 視差圖 區(qū)域匹配 數(shù)字重聚焦


【摘要】:光場記錄了空間中所有光線的輻照度信息。利用光場相機采集的四維光場數(shù)據(jù),包含光線的空間和角度信息,可用于場景的深度信息獲取。受場景的復(fù)雜性影響,如遮擋區(qū)域和平滑紋理區(qū)域,其深度估計結(jié)果的精度不高。本文提出了一種利用光場數(shù)據(jù)四維結(jié)構(gòu)信息,實現(xiàn)像素級精度的深度估計算法、基于深度信息的數(shù)字重聚焦和窄視角三維表面重構(gòu)。本文利用了深度與視差的對應(yīng)關(guān)系,將計算深度轉(zhuǎn)換為計算相鄰視圖間的視差,通過采用二次匹配和分類優(yōu)化的方法提高視差的計算精度,獲取高精度的深度圖。首先采用加入權(quán)重系數(shù)的區(qū)域匹配方法,計算出圖像中每個像素點的視差信息。分析了匹配過程中誤差產(chǎn)生的原因,并給出一種新的置信函數(shù)。結(jié)合平滑區(qū)域和邊緣遮擋區(qū)域在計算距離測度函數(shù)時具有不同值域范圍的特點,對誤差區(qū)域進行分類標識。由此,設(shè)計了相應(yīng)的二次匹配方法和分類優(yōu)化方法,在降低誤匹配概率的同時,兼顧了邊界信息保留和區(qū)域平滑兩個方面。實現(xiàn)每個像素的視差信息的精確估計。利用獲取的深度信息實現(xiàn)數(shù)字重聚焦,三維重構(gòu)和視點漫游。根據(jù)重聚焦深度和視差的對應(yīng)關(guān)系,給出多視圖下基于視差的重聚焦方法,得到聚焦在不同深度的圖像。此外,基于成像過程中的幾何原理,利用高精度的深度信息計算得到場景的三維坐標,實現(xiàn)窄視角下場景的三維重構(gòu);谟嬎愠龅膱鼍叭S坐標和成像原理,可以得到視點在深度方向上漫游時,場景所成的圖像。本文采用公開的基準光場數(shù)據(jù)和實拍的光場數(shù)據(jù)進行算法驗證、測試與評估成像精度。結(jié)果表明,本文中提出的算法降低了平滑區(qū)域和邊緣遮擋區(qū)域的深度估計誤差。與已有的算法相比,新算法具有更好的計算精度。本文研究了基于四維光場數(shù)據(jù)的高精度深度信息獲取方法。這對于視差計算過程中的匹配優(yōu)化,以及平滑曲面的深度信息獲取等理論和應(yīng)用問題的進一步工作,均有很好的意義。同時對于這種采集方式的研究,也為某些特定應(yīng)用場合的光場相機設(shè)計提供有益的參考。
【關(guān)鍵詞】:深度估計 四維光場數(shù)據(jù) 視差圖 區(qū)域匹配 數(shù)字重聚焦
【學(xué)位授予單位】:北京信息科技大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP391.41
【目錄】:
  • 摘要4-5
  • ABSTRACT5-9
  • 第一章 緒論9-14
  • 1.1 研究的背景與意義9-10
  • 1.2 國內(nèi)外研究現(xiàn)狀10-12
  • 1.2.1 光場成像10-11
  • 1.2.2 基于光場數(shù)據(jù)的深度信息獲取11-12
  • 1.3 本文的主要內(nèi)容與組織結(jié)構(gòu)12-14
  • 1.3.1 本文的主要內(nèi)容12-13
  • 1.3.2 本文的組織結(jié)構(gòu)13-14
  • 第二章 光場成像基本理論14-25
  • 2.1 光場的概述14-17
  • 2.1.1 光場的定義與參數(shù)化表示14-15
  • 2.1.2 光場的獲取方式15-17
  • 2.2 四維光場的采樣17-18
  • 2.3 重聚焦算法原理18-20
  • 2.3.1 計算成像原理19
  • 2.3.2 數(shù)字重聚焦原理19-20
  • 2.4 基于微透鏡陣列光場相機算法原理20-24
  • 2.4.1 斯坦福光場相機算法原理21-22
  • 2.4.2 聚焦全光相機算法原理22-24
  • 2.5 本章小結(jié)24-25
  • 第三章 光場數(shù)據(jù)中的深度估計方法25-33
  • 3.1 光場成像中的視差25-26
  • 3.2 基于立體視覺的深度估計26-28
  • 3.3 基于極線圖的深度信息獲取28-30
  • 3.4 基于Focal Stack的深度信息獲取30-32
  • 3.5 本章小結(jié)32-33
  • 第四章 基于多視圖光場數(shù)據(jù)的深度信息獲取33-45
  • 4.1 區(qū)域匹配33-34
  • 4.2 置信函數(shù)及二次匹配34-38
  • 4.2.1 置信函數(shù)34-35
  • 4.2.2 二次匹配35-38
  • 4.3 視差圖優(yōu)化及深度計算38-40
  • 4.4 基于深度圖的應(yīng)用40-44
  • 4.4.1 數(shù)字重聚焦40-42
  • 4.4.2 三維表面重構(gòu)42-43
  • 4.4.3 視點漫游43-44
  • 4.5 本章小結(jié)44-45
  • 第五章 數(shù)據(jù)實驗45-55
  • 5.1 HCI光場數(shù)據(jù)實驗45-51
  • 5.1.1 HCI模擬光場數(shù)據(jù)實驗45-47
  • 5.1.2 HCI實測光場數(shù)據(jù)實驗47-49
  • 5.1.3 誤差分析49-51
  • 5.2 實拍光場數(shù)據(jù)的采集與實驗51-54
  • 5.3 本章小結(jié)54-55
  • 第六章 總結(jié)與展望55-57
  • 6.1 本文主要的研究工作55-56
  • 6.2 進一步的研究工作56-57
  • 參考文獻57-60
  • 個人簡歷 在學(xué)期間發(fā)表的學(xué)術(shù)論文與研究成果60-61
  • 致謝61

【相似文獻】

中國期刊全文數(shù)據(jù)庫 前10條

1 宋曉煒;楊蕾;劉忠;廖亮;;基于視差矢量特點的視差估計快速算法[J];計算機應(yīng)用;2012年07期

2 安平,張兆揚;基于立體攝像幾何特性的視差匹配快速算法[J];上海大學(xué)學(xué)報(自然科學(xué)版);2000年05期

3 劉佳;安平;張兆揚;;基于對象的預(yù)測遞歸視差估計[J];中國圖象圖形學(xué)報;2005年11期

4 郭大波;盧朝陽;何華君;焦衛(wèi)東;;一種新的立體視差估計算法[J];西安電子科技大學(xué)學(xué)報;2007年03期

5 吳書凱;都思丹;李華;;基于半規(guī)則網(wǎng)格的視差估計算法[J];計算機應(yīng)用;2008年04期

6 陳文鑫;陳偉東;朱仲杰;白永強;;基于可變特征基元的視差估計新方法[J];計算機工程與應(yīng)用;2008年15期

7 莊克成;曾丹;陶江良;張之江;;基于視差估計的視圖生成[J];計算機仿真;2010年02期

8 張倩;安平;張兆楊;呂朝輝;;基于視差稠密化的視圖合成[J];高技術(shù)通訊;2010年08期

9 元輝;李志斌;劉微;;基于色度分割與圖割算法的視差估計算法[J];華南理工大學(xué)學(xué)報(自然科學(xué)版);2013年02期

10 胡波;戴萬長;肖志堅;吳建平;胡杰;;均值偏移的多視點視差估計新方法[J];計算機應(yīng)用;2013年08期

中國重要會議論文全文數(shù)據(jù)庫 前5條

1 郁梅;董海濤;蔣剛毅;;基于視差插值與相似度的多視點視差估計算法[A];第一屆建立和諧人機環(huán)境聯(lián)合學(xué)術(shù)會議(HHME2005)論文集[C];2005年

2 魏娜;張為冬;;3D電視視差舒適度客觀評價[A];中國新聞技術(shù)工作者聯(lián)合會第六次會員代表大會、2014年學(xué)術(shù)年會暨第七屆《王選新聞科學(xué)技術(shù)獎》和優(yōu)秀論文獎頒獎大會論文集(三等獎)[C];2014年

3 邱濤;郁梅;彭宗舉;李福翠;徐秋敏;蔣剛毅;;一種交互式多視點系統(tǒng)中的多分辨率視差估計算法[A];第三屆和諧人機環(huán)境聯(lián)合學(xué)術(shù)會議(HHME2007)論文集[C];2007年

4 陳毅濱;蔡燦輝;;基于運動和視差特性的立體視頻對象分割算法[A];第十四屆全國圖象圖形學(xué)學(xué)術(shù)會議論文集[C];2008年

5 李立春;周建亮;孫軍;尚德生;張偉;許穎慧;楊成;孟彥鵬;;應(yīng)用單應(yīng)誘導(dǎo)視差的探測器月面著陸平面選擇方法[A];中國宇航學(xué)會深空探測技術(shù)專業(yè)委員會第十屆學(xué)術(shù)年會論文集[C];2013年

中國碩士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 薛飛;基于視差的恰可察覺誤差模型的立體視頻編碼研究[D];西安電子科技大學(xué);2014年

2 陳佃文;基于4D光場數(shù)據(jù)的深度信息獲取[D];北京信息科技大學(xué);2016年

3 孔祥軍;基于多視點解碼流分析的視差預(yù)測方法研究[D];吉林大學(xué);2015年

4 張耀;基礎(chǔ)矩陣計算及其在立體視差估計中的應(yīng)用[D];西安電子科技大學(xué);2008年

5 龐耀華;多視角視頻編碼中視角合成技術(shù)研究[D];西安電子科技大學(xué);2009年

6 劉小莉;雙目立體視覺稠密視差算法研究[D];重慶大學(xué);2008年

7 張磊;多視點視頻編碼中運動與視差估計的研究[D];西安電子科技大學(xué);2010年

8 呂小倩;沉浸式視頻中三維場景視差提取與精煉的研究[D];山東大學(xué);2009年

9 張程風(fēng);立體視頻中視差估計研究[D];合肥工業(yè)大學(xué);2010年

10 Rojanakat Payomrat;基于神經(jīng)網(wǎng)絡(luò)的雙目視差估計[D];哈爾濱工程大學(xué);2010年

,

本文編號:516115

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/516115.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶af360***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com