天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 碩博論文 > 信息類博士論文 >

單目圖像的深度估計(jì)

發(fā)布時(shí)間:2017-08-06 17:27

  本文關(guān)鍵詞:單目圖像的深度估計(jì)


  更多相關(guān)文章: 深度估計(jì) 全局運(yùn)動估計(jì) 度量學(xué)習(xí) 深度學(xué)習(xí) 卷積神經(jīng)網(wǎng)絡(luò) 條件隨機(jī)場


【摘要】:從圖像中恢復(fù)出場景的三維結(jié)構(gòu)是計(jì)算機(jī)視覺領(lǐng)域中一個(gè)非常基本的問題。如果能夠準(zhǔn)確地估計(jì)出場景的三維結(jié)構(gòu),我們就能夠了解圖像中物體之間的三維關(guān)系,從而更好地進(jìn)行場景理解。這將極大促進(jìn)計(jì)算機(jī)視覺領(lǐng)域多種應(yīng)用的發(fā)展,如機(jī)器人導(dǎo)航、視頻監(jiān)控以及2D轉(zhuǎn)3D等;谏鲜鲅芯勘尘,本學(xué)位論文主要研究如何從單目圖像中進(jìn)行深度估計(jì),包括攝像機(jī)運(yùn)動下的前景背景深度估計(jì)以及基于機(jī)器學(xué)習(xí)的深度估計(jì)等,有效地解決了目前的深度估計(jì)算法中面臨的算法適用性、三維結(jié)構(gòu)相似性度量、特征選擇、深度平滑性等問題,從而大大提高了深度估計(jì)的精度。總體而言,本論文的主要貢獻(xiàn)如下:(1)提出了一個(gè)從視頻序列中進(jìn)行深度估計(jì)的算法。針對現(xiàn)有深度估計(jì)算法大多受限于特定場景的問題,我們在綜合現(xiàn)有的方法的基礎(chǔ)上,提出了一個(gè)適用于攝像機(jī)任意狀態(tài)的前景背景深度估計(jì)的算法框架,無論當(dāng)攝像機(jī)處于運(yùn)動狀態(tài)還是靜止?fàn)顟B(tài),該框架可以有效地從視頻序列中估計(jì)出前景和背景的深度;特別針對攝像機(jī)處于復(fù)雜運(yùn)動時(shí)的運(yùn)動物體提取問題,提出了一種基于有效的外點(diǎn)去除的全局運(yùn)動估計(jì)算法,提高了運(yùn)動物體提取的精度,保證了恢復(fù)的深度圖中具有較為完整的運(yùn)動物體的輪廓。(2)提出了一個(gè)基于度量學(xué)習(xí)的深度估計(jì)算法。針對深度采樣方法中三維結(jié)構(gòu)相似性的度量問題,提出了利用學(xué)習(xí)的馬氏距離代替?zhèn)鹘y(tǒng)的歐式距離來度量三維結(jié)構(gòu)的相似性,有效地提高了深度采樣算法的效果。并構(gòu)造了關(guān)于馬氏距離度量中參數(shù)矩陣的損失函數(shù),通過生成的反映圖像之間三維結(jié)構(gòu)相似性的數(shù)據(jù)庫實(shí)現(xiàn)了對這個(gè)損失函數(shù)的優(yōu)化。此外,針對傳統(tǒng)的深度融合方法速率較慢的問題,我們還提出了一個(gè)基于高斯加權(quán)的快速深度融合方法。(3)提出了兩個(gè)基于深度學(xué)習(xí)的深度估計(jì)算法。首先,針對特征選擇的問題,我們提出利用深度卷積神經(jīng)網(wǎng)絡(luò)建立原始圖像與深度值之間的關(guān)系,實(shí)現(xiàn)了對反映深度信息的特征的學(xué)習(xí),解決了傳統(tǒng)人工設(shè)計(jì)的底層特征的二義性問題。同時(shí),提出的基于全圖卷積的深度估計(jì)方式,進(jìn)一步降低了算法的運(yùn)行時(shí)間。在此基礎(chǔ)上,針對深度平滑性的問題,又提出了聯(lián)合卷積神經(jīng)網(wǎng)絡(luò)和條件隨機(jī)場的模型,通過這個(gè)聯(lián)合的模型建立了原始圖像與深度以及深度與深度之間的關(guān)聯(lián),并利用條件隨機(jī)場的損失函數(shù)實(shí)現(xiàn)了該深度模型的優(yōu)化。該方法生成的深度圖中具有更清晰的物體輪廓,同時(shí)達(dá)到了深度準(zhǔn)確性和平滑性的目的。與以往的方法相比,這兩種基于深度學(xué)習(xí)的深度估計(jì)方法均不需要任何人工設(shè)計(jì)的特征,也不需要引入場景的幾何約束或者語義信息,因此具有更強(qiáng)的適用性。
【關(guān)鍵詞】:深度估計(jì) 全局運(yùn)動估計(jì) 度量學(xué)習(xí) 深度學(xué)習(xí) 卷積神經(jīng)網(wǎng)絡(luò) 條件隨機(jī)場
【學(xué)位授予單位】:北京郵電大學(xué)
【學(xué)位級別】:博士
【學(xué)位授予年份】:2015
【分類號】:TP391.41
【目錄】:
  • 摘要4-6
  • 英文摘要6-8
  • 縮略語表8-12
  • 第一章 緒論12-30
  • 1.1 研究背景12-13
  • 1.2 國內(nèi)外研究現(xiàn)狀13-19
  • 1.2.1 基于深度線索方法的研究現(xiàn)狀14-16
  • 1.2.2 基于機(jī)器學(xué)習(xí)方法的研究現(xiàn)狀16-19
  • 1.3 本文的研究內(nèi)容和主要貢獻(xiàn)19-21
  • 1.4 本文的組織結(jié)構(gòu)21
  • 參考文獻(xiàn)21-30
  • 第二章 經(jīng)典的深度估計(jì)算法30-52
  • 2.1 深度的表示方法30-32
  • 2.2 基于深度線索的深度估計(jì)算法32-37
  • 2.2.1 基于線性透視的深度估計(jì)算法32-34
  • 2.2.2 基于物體運(yùn)動的深度估計(jì)算法34-37
  • 2.3 基于圖模型的深度估計(jì)算法37-42
  • 2.3.1 特征的表示37-38
  • 2.3.2 圖模型的建立38-42
  • 2.4 基于深度信息采樣的深度估計(jì)算法42-47
  • 2.4.1 算法基本框架42-43
  • 2.4.2 kNN檢索43-44
  • 2.4.3 場景對齊44
  • 2.4.4 深度融合44-47
  • 2.5 評價(jià)標(biāo)準(zhǔn)47-48
  • 2.5.1 標(biāo)準(zhǔn)測試數(shù)據(jù)庫47-48
  • 2.5.2 評測方法48
  • 2.6 本章小結(jié)48-49
  • 參考文獻(xiàn)49-52
  • 第三章 攝像機(jī)運(yùn)動下的前景背景深度估計(jì)算法52-76
  • 3.1 引言52-53
  • 3.2 算法框架53-56
  • 3.2.1 背景深度的生成54-55
  • 3.2.2 攝像機(jī)的運(yùn)動分析55-56
  • 3.2.3 基于背景建模的運(yùn)動物體提取56
  • 3.3 改進(jìn)的全局運(yùn)動估計(jì)算法56-63
  • 3.3.1 GME模型57-58
  • 3.3.2 像素點(diǎn)的選取58-59
  • 3.3.3 外點(diǎn)去除59-61
  • 3.3.4 金字塔式的參數(shù)優(yōu)化61-62
  • 3.3.5 基于GME算法的運(yùn)動物體提取62-63
  • 3.4 深度融合63
  • 3.5 實(shí)驗(yàn)結(jié)果分析63-71
  • 3.5.1 改進(jìn)的GME算法的性能分析63-68
  • 3.5.2 深度估計(jì)算法的結(jié)果分析68-71
  • 3.6 本章小結(jié)71-72
  • 參考文獻(xiàn)72-76
  • 第四章 基于度量學(xué)習(xí)的深度估計(jì)算法76-92
  • 4.1 引言76-77
  • 4.2 度量學(xué)習(xí)77-78
  • 4.3 基于度量學(xué)習(xí)的深度采樣算法78-83
  • 4.3.1 三維空間里的馬氏距離度量78-79
  • 4.3.2 損失函數(shù)的構(gòu)建79-82
  • 4.3.3 模型的訓(xùn)練82-83
  • 4.3.4 基于馬氏距離的深度采樣83
  • 4.4 基于高斯加權(quán)的深度融合算法83-84
  • 4.5 實(shí)驗(yàn)結(jié)果分析84-89
  • 4.5.1 訓(xùn)練數(shù)據(jù)可視化84-85
  • 4.5.2 參數(shù)設(shè)置85
  • 4.5.3 馬氏距離vs歐式距離85-88
  • 4.5.4 高斯加權(quán)融合vs能量最小融合88-89
  • 4.6 本章小結(jié)89-90
  • 參考文獻(xiàn)90-92
  • 第五章 基于深度學(xué)習(xí)的場景深度估計(jì)算法92-120
  • 5.1 引言92-93
  • 5.2 深度學(xué)習(xí)93-97
  • 5.3 基于深度卷積神經(jīng)網(wǎng)絡(luò)的深度估計(jì)算法97-105
  • 5.3.1 算法框架97-98
  • 5.3.2 深度卷積神經(jīng)網(wǎng)絡(luò)模型98-100
  • 5.3.3 快速深度估計(jì)算法100-101
  • 5.3.4 實(shí)驗(yàn)結(jié)果分析101-105
  • 5.4 基于深度卷積條件隨機(jī)場網(wǎng)絡(luò)的深度估計(jì)算法105-115
  • 5.4.1 連續(xù)條件隨機(jī)場模型106-108
  • 5.4.2 卷積條件隨機(jī)場網(wǎng)絡(luò)108-109
  • 5.4.3 模型的訓(xùn)練與預(yù)測109-112
  • 5.4.4 實(shí)驗(yàn)結(jié)果分析112-115
  • 5.5 本章小結(jié)115-116
  • 參考文獻(xiàn)116-120
  • 第六章 總結(jié)與展望120-122
  • 6.1 本文的工作總結(jié)120-121
  • 6.2 未來的工作展望121-122
  • 致謝122-124
  • 攻讀博士學(xué)位期間的研究成果124

【共引文獻(xiàn)】

中國期刊全文數(shù)據(jù)庫 前10條

1 王諍,傅立言,余松煜;MDL準(zhǔn)則用于散焦圖像復(fù)原[J];電子技術(shù)應(yīng)用;1999年05期

2 裴錫宇,馮華君,李奇,徐之海;一種基于頻譜分析的離焦深度自動對焦法[J];光電工程;2003年05期

3 祝世平,強(qiáng)錫富;用于攝像機(jī)定位的單目視覺方法研究[J];光學(xué)學(xué)報(bào);2001年03期

4 黃艷;徐巧玉;葉東;車仁生;;基于微分圖像自相關(guān)的自動對焦法[J];光學(xué)學(xué)報(bào);2010年12期

5 李奇,徐之海,馮華君,戴順林,邊美娟;數(shù)字成象系統(tǒng)自動對焦區(qū)域設(shè)計(jì)[J];光子學(xué)報(bào);2002年01期

6 張法全;路立平;沈滿德;陳良益;崔光照;;單目視覺目標(biāo)距離測量方法研究[J];光子學(xué)報(bào);2009年02期

7 沈壁川;吳艷;;人臉檢測中盲解卷積的點(diǎn)傳輸函數(shù)和光學(xué)傳輸函數(shù)分析[J];光子學(xué)報(bào);2010年09期

8 郭力滔;高天元;孫景睿;王小龍;;卡塞格林式星敏感器雜散光分析[J];長春理工大學(xué)學(xué)報(bào)(自然科學(xué)版);2015年02期

9 馬麗娜;宗肖穎;李永強(qiáng);;基于圖像頻譜的定焦分析[J];光學(xué)學(xué)報(bào);2015年07期

10 章權(quán)兵;張愛明;;基于相對模糊和邊緣強(qiáng)化的散焦深度恢復(fù)研究[J];華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版);2010年04期

中國博士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 董杰;基于單目視覺的散焦測距算法的研究[D];中國海洋大學(xué);2010年

2 王鑫;數(shù)字圖像盲取證技術(shù)研究[D];解放軍信息工程大學(xué);2009年

3 于秋水;基于圖像處理方法的光學(xué)瞄具自動調(diào)焦技術(shù)研究[D];長春理工大學(xué);2011年

4 張卓筠;自由立體深度信息挖掘與評價(jià)算法研究[D];天津大學(xué);2010年

5 李奇;數(shù)字自動對焦技術(shù)的理論及實(shí)現(xiàn)方法研究[D];浙江大學(xué);2004年

6 王華;高密度全場主動離焦三維測量方法的研究[D];四川大學(xué);2004年

7 胡濤;機(jī)器視覺中的自動調(diào)焦及形貌恢復(fù)技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2007年

8 楊俊;圖像數(shù)據(jù)的視覺顯著性檢測技術(shù)及其應(yīng)用[D];國防科學(xué)技術(shù)大學(xué);2007年

9 邸慧;靶場圖像預(yù)處理和目標(biāo)運(yùn)動單像機(jī)測量方法研究[D];國防科學(xué)技術(shù)大學(xué);2007年

10 付小寧;紅外單站被動定位技術(shù)研究[D];西安電子科技大學(xué);2005年

中國碩士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 彭方;基于DSP的自動對焦算法研究[D];西安電子科技大學(xué);2011年

2 陸燕慧;管道容器損傷圖像的分割和深度提取技術(shù)的研究及應(yīng)用[D];西安電子科技大學(xué);2009年

3 王劍華;基于嵌入式Linux的數(shù)字自動對焦系統(tǒng)研究[D];華南理工大學(xué);2011年

4 于洋;高能束快速制造中計(jì)算機(jī)視覺技術(shù)應(yīng)用的研究[D];華中科技大學(xué);2011年

5 孟希羲;基于圖像配準(zhǔn)的空間相機(jī)自動對焦[D];浙江大學(xué);2012年

6 裴錫宇;自動對焦技術(shù)及其工程應(yīng)用的研究[D];浙江大學(xué);2004年

7 鐘孟兒;基于離焦深度的光學(xué)投影系統(tǒng)調(diào)整方法和實(shí)驗(yàn)研究[D];浙江大學(xué);2005年

8 劉義鵬;顯微鏡自動對焦系統(tǒng)設(shè)計(jì)與應(yīng)用[D];浙江大學(xué);2005年

9 徐培鳳;基于圖像處理的自動對焦和自動曝光算法研究[D];江蘇大學(xué);2005年

10 李峰;數(shù)字圖像質(zhì)量檢測技術(shù)的研究與實(shí)現(xiàn)[D];江蘇大學(xué);2005年

,

本文編號:630793

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/630793.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶79629***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com
精品国产av一区二区三区不卡蜜| 国产精品亚洲综合天堂夜夜| 麻豆精品视频一二三区| 国产肥妇一区二区熟女精品 | 一区二区日韩欧美精品| 欧美午夜一级艳片免费看| 中文字日产幕码三区国产| 出差被公高潮久久中文字幕| 偷拍洗澡一区二区三区| 中文字幕无线码一区欧美| 亚洲品质一区二区三区| 成人午夜视频精品一区| 人妻偷人精品一区二区三区不卡| 亚洲精品一区三区三区| 日本免费熟女一区二区三区| 成年人黄片大全在线观看| 久久少妇诱惑免费视频| 日韩人妻欧美一区二区久久| 久久大香蕉精品在线观看| 午夜福利视频日本一区| 色鬼综合久久鬼色88| 无套内射美女视频免费在线观看| 日本视频在线观看不卡| 日韩中文字幕有码午夜美女| 精品少妇一区二区视频| 黄色片一区二区三区高清| 正在播放国产又粗又长| 91人妻人人做人碰人人九色| 久久免费精品拍拍一区二区| 亚洲视频在线观看你懂的| 中文字幕中文字幕一区二区| 色偷偷亚洲女人天堂观看 | 亚洲欧洲一区二区中文字幕| 太香蕉久久国产精品视频| 日韩国产亚洲欧美另类| 亚洲专区中文字幕视频| 台湾综合熟女一区二区| 亚洲最新中文字幕一区| 高清不卡一卡二卡区在线| 久热香蕉精品视频在线播放| 精品人妻一区二区三区免费|