天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

單目圖像的深度估計

發(fā)布時間:2017-08-06 17:27

  本文關(guān)鍵詞:單目圖像的深度估計


  更多相關(guān)文章: 深度估計 全局運動估計 度量學(xué)習(xí) 深度學(xué)習(xí) 卷積神經(jīng)網(wǎng)絡(luò) 條件隨機場


【摘要】:從圖像中恢復(fù)出場景的三維結(jié)構(gòu)是計算機視覺領(lǐng)域中一個非;镜膯栴}。如果能夠準確地估計出場景的三維結(jié)構(gòu),我們就能夠了解圖像中物體之間的三維關(guān)系,從而更好地進行場景理解。這將極大促進計算機視覺領(lǐng)域多種應(yīng)用的發(fā)展,如機器人導(dǎo)航、視頻監(jiān)控以及2D轉(zhuǎn)3D等。基于上述研究背景,本學(xué)位論文主要研究如何從單目圖像中進行深度估計,包括攝像機運動下的前景背景深度估計以及基于機器學(xué)習(xí)的深度估計等,有效地解決了目前的深度估計算法中面臨的算法適用性、三維結(jié)構(gòu)相似性度量、特征選擇、深度平滑性等問題,從而大大提高了深度估計的精度。總體而言,本論文的主要貢獻如下:(1)提出了一個從視頻序列中進行深度估計的算法。針對現(xiàn)有深度估計算法大多受限于特定場景的問題,我們在綜合現(xiàn)有的方法的基礎(chǔ)上,提出了一個適用于攝像機任意狀態(tài)的前景背景深度估計的算法框架,無論當攝像機處于運動狀態(tài)還是靜止狀態(tài),該框架可以有效地從視頻序列中估計出前景和背景的深度;特別針對攝像機處于復(fù)雜運動時的運動物體提取問題,提出了一種基于有效的外點去除的全局運動估計算法,提高了運動物體提取的精度,保證了恢復(fù)的深度圖中具有較為完整的運動物體的輪廓。(2)提出了一個基于度量學(xué)習(xí)的深度估計算法。針對深度采樣方法中三維結(jié)構(gòu)相似性的度量問題,提出了利用學(xué)習(xí)的馬氏距離代替?zhèn)鹘y(tǒng)的歐式距離來度量三維結(jié)構(gòu)的相似性,有效地提高了深度采樣算法的效果。并構(gòu)造了關(guān)于馬氏距離度量中參數(shù)矩陣的損失函數(shù),通過生成的反映圖像之間三維結(jié)構(gòu)相似性的數(shù)據(jù)庫實現(xiàn)了對這個損失函數(shù)的優(yōu)化。此外,針對傳統(tǒng)的深度融合方法速率較慢的問題,我們還提出了一個基于高斯加權(quán)的快速深度融合方法。(3)提出了兩個基于深度學(xué)習(xí)的深度估計算法。首先,針對特征選擇的問題,我們提出利用深度卷積神經(jīng)網(wǎng)絡(luò)建立原始圖像與深度值之間的關(guān)系,實現(xiàn)了對反映深度信息的特征的學(xué)習(xí),解決了傳統(tǒng)人工設(shè)計的底層特征的二義性問題。同時,提出的基于全圖卷積的深度估計方式,進一步降低了算法的運行時間。在此基礎(chǔ)上,針對深度平滑性的問題,又提出了聯(lián)合卷積神經(jīng)網(wǎng)絡(luò)和條件隨機場的模型,通過這個聯(lián)合的模型建立了原始圖像與深度以及深度與深度之間的關(guān)聯(lián),并利用條件隨機場的損失函數(shù)實現(xiàn)了該深度模型的優(yōu)化。該方法生成的深度圖中具有更清晰的物體輪廓,同時達到了深度準確性和平滑性的目的。與以往的方法相比,這兩種基于深度學(xué)習(xí)的深度估計方法均不需要任何人工設(shè)計的特征,也不需要引入場景的幾何約束或者語義信息,因此具有更強的適用性。
【關(guān)鍵詞】:深度估計 全局運動估計 度量學(xué)習(xí) 深度學(xué)習(xí) 卷積神經(jīng)網(wǎng)絡(luò) 條件隨機場
【學(xué)位授予單位】:北京郵電大學(xué)
【學(xué)位級別】:博士
【學(xué)位授予年份】:2015
【分類號】:TP391.41
【目錄】:
  • 摘要4-6
  • 英文摘要6-8
  • 縮略語表8-12
  • 第一章 緒論12-30
  • 1.1 研究背景12-13
  • 1.2 國內(nèi)外研究現(xiàn)狀13-19
  • 1.2.1 基于深度線索方法的研究現(xiàn)狀14-16
  • 1.2.2 基于機器學(xué)習(xí)方法的研究現(xiàn)狀16-19
  • 1.3 本文的研究內(nèi)容和主要貢獻19-21
  • 1.4 本文的組織結(jié)構(gòu)21
  • 參考文獻21-30
  • 第二章 經(jīng)典的深度估計算法30-52
  • 2.1 深度的表示方法30-32
  • 2.2 基于深度線索的深度估計算法32-37
  • 2.2.1 基于線性透視的深度估計算法32-34
  • 2.2.2 基于物體運動的深度估計算法34-37
  • 2.3 基于圖模型的深度估計算法37-42
  • 2.3.1 特征的表示37-38
  • 2.3.2 圖模型的建立38-42
  • 2.4 基于深度信息采樣的深度估計算法42-47
  • 2.4.1 算法基本框架42-43
  • 2.4.2 kNN檢索43-44
  • 2.4.3 場景對齊44
  • 2.4.4 深度融合44-47
  • 2.5 評價標準47-48
  • 2.5.1 標準測試數(shù)據(jù)庫47-48
  • 2.5.2 評測方法48
  • 2.6 本章小結(jié)48-49
  • 參考文獻49-52
  • 第三章 攝像機運動下的前景背景深度估計算法52-76
  • 3.1 引言52-53
  • 3.2 算法框架53-56
  • 3.2.1 背景深度的生成54-55
  • 3.2.2 攝像機的運動分析55-56
  • 3.2.3 基于背景建模的運動物體提取56
  • 3.3 改進的全局運動估計算法56-63
  • 3.3.1 GME模型57-58
  • 3.3.2 像素點的選取58-59
  • 3.3.3 外點去除59-61
  • 3.3.4 金字塔式的參數(shù)優(yōu)化61-62
  • 3.3.5 基于GME算法的運動物體提取62-63
  • 3.4 深度融合63
  • 3.5 實驗結(jié)果分析63-71
  • 3.5.1 改進的GME算法的性能分析63-68
  • 3.5.2 深度估計算法的結(jié)果分析68-71
  • 3.6 本章小結(jié)71-72
  • 參考文獻72-76
  • 第四章 基于度量學(xué)習(xí)的深度估計算法76-92
  • 4.1 引言76-77
  • 4.2 度量學(xué)習(xí)77-78
  • 4.3 基于度量學(xué)習(xí)的深度采樣算法78-83
  • 4.3.1 三維空間里的馬氏距離度量78-79
  • 4.3.2 損失函數(shù)的構(gòu)建79-82
  • 4.3.3 模型的訓(xùn)練82-83
  • 4.3.4 基于馬氏距離的深度采樣83
  • 4.4 基于高斯加權(quán)的深度融合算法83-84
  • 4.5 實驗結(jié)果分析84-89
  • 4.5.1 訓(xùn)練數(shù)據(jù)可視化84-85
  • 4.5.2 參數(shù)設(shè)置85
  • 4.5.3 馬氏距離vs歐式距離85-88
  • 4.5.4 高斯加權(quán)融合vs能量最小融合88-89
  • 4.6 本章小結(jié)89-90
  • 參考文獻90-92
  • 第五章 基于深度學(xué)習(xí)的場景深度估計算法92-120
  • 5.1 引言92-93
  • 5.2 深度學(xué)習(xí)93-97
  • 5.3 基于深度卷積神經(jīng)網(wǎng)絡(luò)的深度估計算法97-105
  • 5.3.1 算法框架97-98
  • 5.3.2 深度卷積神經(jīng)網(wǎng)絡(luò)模型98-100
  • 5.3.3 快速深度估計算法100-101
  • 5.3.4 實驗結(jié)果分析101-105
  • 5.4 基于深度卷積條件隨機場網(wǎng)絡(luò)的深度估計算法105-115
  • 5.4.1 連續(xù)條件隨機場模型106-108
  • 5.4.2 卷積條件隨機場網(wǎng)絡(luò)108-109
  • 5.4.3 模型的訓(xùn)練與預(yù)測109-112
  • 5.4.4 實驗結(jié)果分析112-115
  • 5.5 本章小結(jié)115-116
  • 參考文獻116-120
  • 第六章 總結(jié)與展望120-122
  • 6.1 本文的工作總結(jié)120-121
  • 6.2 未來的工作展望121-122
  • 致謝122-124
  • 攻讀博士學(xué)位期間的研究成果124

【共引文獻】

中國期刊全文數(shù)據(jù)庫 前10條

1 王諍,傅立言,余松煜;MDL準則用于散焦圖像復(fù)原[J];電子技術(shù)應(yīng)用;1999年05期

2 裴錫宇,馮華君,李奇,徐之海;一種基于頻譜分析的離焦深度自動對焦法[J];光電工程;2003年05期

3 祝世平,強錫富;用于攝像機定位的單目視覺方法研究[J];光學(xué)學(xué)報;2001年03期

4 黃艷;徐巧玉;葉東;車仁生;;基于微分圖像自相關(guān)的自動對焦法[J];光學(xué)學(xué)報;2010年12期

5 李奇,徐之海,馮華君,戴順林,邊美娟;數(shù)字成象系統(tǒng)自動對焦區(qū)域設(shè)計[J];光子學(xué)報;2002年01期

6 張法全;路立平;沈滿德;陳良益;崔光照;;單目視覺目標距離測量方法研究[J];光子學(xué)報;2009年02期

7 沈壁川;吳艷;;人臉檢測中盲解卷積的點傳輸函數(shù)和光學(xué)傳輸函數(shù)分析[J];光子學(xué)報;2010年09期

8 郭力滔;高天元;孫景睿;王小龍;;卡塞格林式星敏感器雜散光分析[J];長春理工大學(xué)學(xué)報(自然科學(xué)版);2015年02期

9 馬麗娜;宗肖穎;李永強;;基于圖像頻譜的定焦分析[J];光學(xué)學(xué)報;2015年07期

10 章權(quán)兵;張愛明;;基于相對模糊和邊緣強化的散焦深度恢復(fù)研究[J];華南理工大學(xué)學(xué)報(自然科學(xué)版);2010年04期

中國博士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 董杰;基于單目視覺的散焦測距算法的研究[D];中國海洋大學(xué);2010年

2 王鑫;數(shù)字圖像盲取證技術(shù)研究[D];解放軍信息工程大學(xué);2009年

3 于秋水;基于圖像處理方法的光學(xué)瞄具自動調(diào)焦技術(shù)研究[D];長春理工大學(xué);2011年

4 張卓筠;自由立體深度信息挖掘與評價算法研究[D];天津大學(xué);2010年

5 李奇;數(shù)字自動對焦技術(shù)的理論及實現(xiàn)方法研究[D];浙江大學(xué);2004年

6 王華;高密度全場主動離焦三維測量方法的研究[D];四川大學(xué);2004年

7 胡濤;機器視覺中的自動調(diào)焦及形貌恢復(fù)技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2007年

8 楊俊;圖像數(shù)據(jù)的視覺顯著性檢測技術(shù)及其應(yīng)用[D];國防科學(xué)技術(shù)大學(xué);2007年

9 邸慧;靶場圖像預(yù)處理和目標運動單像機測量方法研究[D];國防科學(xué)技術(shù)大學(xué);2007年

10 付小寧;紅外單站被動定位技術(shù)研究[D];西安電子科技大學(xué);2005年

中國碩士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 彭方;基于DSP的自動對焦算法研究[D];西安電子科技大學(xué);2011年

2 陸燕慧;管道容器損傷圖像的分割和深度提取技術(shù)的研究及應(yīng)用[D];西安電子科技大學(xué);2009年

3 王劍華;基于嵌入式Linux的數(shù)字自動對焦系統(tǒng)研究[D];華南理工大學(xué);2011年

4 于洋;高能束快速制造中計算機視覺技術(shù)應(yīng)用的研究[D];華中科技大學(xué);2011年

5 孟希羲;基于圖像配準的空間相機自動對焦[D];浙江大學(xué);2012年

6 裴錫宇;自動對焦技術(shù)及其工程應(yīng)用的研究[D];浙江大學(xué);2004年

7 鐘孟兒;基于離焦深度的光學(xué)投影系統(tǒng)調(diào)整方法和實驗研究[D];浙江大學(xué);2005年

8 劉義鵬;顯微鏡自動對焦系統(tǒng)設(shè)計與應(yīng)用[D];浙江大學(xué);2005年

9 徐培鳳;基于圖像處理的自動對焦和自動曝光算法研究[D];江蘇大學(xué);2005年

10 李峰;數(shù)字圖像質(zhì)量檢測技術(shù)的研究與實現(xiàn)[D];江蘇大學(xué);2005年

,

本文編號:630793

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/630793.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶79629***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com