基于單目相機(jī)的深度估計(jì)系統(tǒng)
發(fā)布時(shí)間:2021-11-18 05:24
近些年,隨著計(jì)算機(jī)軟件算法的創(chuàng)新以及硬件計(jì)算力的突破,深度學(xué)習(xí)技術(shù)獲得了突破性的發(fā)展與進(jìn)步,人類正在采用深度學(xué)習(xí)技術(shù)構(gòu)建人工智能的新時(shí)代。人工智能研究的一個(gè)重要領(lǐng)域就是計(jì)算機(jī)視覺,從目前進(jìn)展來看,深度學(xué)習(xí)技術(shù)成功解決了二維視覺之中的一個(gè)又一個(gè)難題,計(jì)算機(jī)視覺方面的研究重點(diǎn)正在慢慢的從二維視覺轉(zhuǎn)向三維視覺。其中,單目深度估計(jì)就是三維視覺中一個(gè)十分基礎(chǔ)但又很有挑戰(zhàn)性的工作。單目深度估計(jì)具有廣闊的發(fā)展前景,應(yīng)用領(lǐng)域包括無人車、移動(dòng)機(jī)器人、增強(qiáng)現(xiàn)實(shí)(AR)、三維重建等。目前,現(xiàn)有的單目深度估計(jì)方法都存在局限性,傳統(tǒng)方法(SFM、SLAM)利用幀間的運(yùn)動(dòng)來估計(jì)相機(jī)姿態(tài),然后采用三角測量法來恢復(fù)場景深度,得到的深度圖往往是稀疏的,半稠密的。而利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行單目深度估計(jì)雖然可以得到稠密的深度圖,但是尚處于發(fā)展階段不夠成熟,精度還有待提高。本文致力于設(shè)計(jì)一個(gè)快速準(zhǔn)確的單目深度估計(jì)系統(tǒng)。整個(gè)系統(tǒng)主要由兩大部分組成:第一部分是網(wǎng)絡(luò)部分。本文設(shè)計(jì)了一個(gè)59層的卷積神經(jīng)網(wǎng)絡(luò)用來進(jìn)行深度圖和不確定度分布圖的預(yù)測。其中,不確定度分布圖中每一個(gè)像素點(diǎn)的值表示的是該像素點(diǎn)深度預(yù)測值的不確定度;第二部分是幀間信息...
【文章來源】:華中科技大學(xué)湖北省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:59 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
單目深度估計(jì)應(yīng)用
2 相關(guān)技術(shù)本章主要介紹與本研究關(guān)系緊密的相關(guān)技術(shù),包括了對(duì)于視覺 SLAM 系統(tǒng)的簡單介紹,對(duì)于特征點(diǎn)法進(jìn)行相機(jī)姿態(tài)估計(jì)的詳細(xì)推導(dǎo),對(duì)于視覺 SLAM 之中深度濾波器理論的重點(diǎn)分析。2.1 視覺 SLAM 系統(tǒng)進(jìn)行單目深度估計(jì)的傳統(tǒng)方法包括了運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SFM,Structure From Motion)技術(shù)和即時(shí)定位與地圖重建(SLAM,Simultaneous LocalizationAnd Mapping)技術(shù)。我們將以視覺 SLAM 技術(shù)為例對(duì)傳統(tǒng)方法進(jìn)行分析和介紹。如下圖 2-1 所示,經(jīng)典的視覺 SLAM 系統(tǒng)主要由傳感器,視覺里程計(jì)(VisualOdometry, VO),后端優(yōu)化(Optimization),回環(huán)檢測(Loop Closing)和建圖(Mapping)五個(gè)基本部分組成。
華 中 科 技 大 學(xué) 碩 士 學(xué) 位 論 文使用 ORB 特征進(jìn)行特征匹配時(shí),BRIFE 會(huì)使用漢明距離(兩數(shù)的個(gè)數(shù))來計(jì)算特征點(diǎn)之間的相似程度,計(jì)算速度更加快捷主要有暴力匹配和快速最近鄰兩種方法?紤]到實(shí)時(shí)性的要要采用快速最近鄰來進(jìn)行特征匹配。通過特征匹配找到了相鄰步就可以采用對(duì)極幾何和三角測量法對(duì)相機(jī)的姿態(tài)和特征點(diǎn)的何在兩個(gè)視角下的成像具有很大的關(guān)聯(lián)性,在具有共視關(guān)系的像,這種隱藏的約束關(guān)系被稱為對(duì)極幾何,我們將利用這一關(guān)系理如下圖 2-2 所示。
【參考文獻(xiàn)】:
期刊論文
[1]基于信息融合的無人駕駛圖像數(shù)據(jù)處理方法[J]. 戴耀威,高正創(chuàng),唐樹銀,李宍宇,葉繼銘. 網(wǎng)絡(luò)安全技術(shù)與應(yīng)用. 2019(04)
[2]無人駕駛汽車環(huán)境感知技術(shù)綜述[J]. 孫志國. 南方農(nóng)機(jī). 2019(03)
[3]深度學(xué)習(xí)在軍用光纜線路無人機(jī)巡檢中的應(yīng)用[J]. 張明江,李紅衛(wèi),趙衛(wèi)虎,夏貴進(jìn),王程遠(yuǎn). 光通信研究. 2018(06)
[4]基于計(jì)算機(jī)視覺及深度學(xué)習(xí)的無人機(jī)手勢控制系統(tǒng)[J]. 馬樂樂,李照洋,董嘉蓉,侯永宏. 計(jì)算機(jī)工程與科學(xué). 2018(05)
[5]基于深度學(xué)習(xí)的無人機(jī)人機(jī)交互系統(tǒng)[J]. 侯永宏,葉秀峰,張亮,李照洋,董嘉蓉. 天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版). 2017(09)
[6]基于深度學(xué)習(xí)的無人車夜視圖像語義分割[J]. 高凱珺,孫韶媛,姚廣順,趙海濤. 應(yīng)用光學(xué). 2017(03)
博士論文
[1]基于RGB-D攝像機(jī)的增強(qiáng)現(xiàn)實(shí)系統(tǒng)關(guān)鍵技術(shù)研究[D]. 李佳寧.浙江大學(xué) 2017
碩士論文
[1]基于深度學(xué)習(xí)的無人機(jī)遙感圖像目標(biāo)識(shí)別方法研究[D]. 祝思君.北京建筑大學(xué) 2018
[2]基于計(jì)算機(jī)視覺和深度學(xué)習(xí)的自動(dòng)駕駛方法研究[D]. 白辰甲.哈爾濱工業(yè)大學(xué) 2017
[3]增強(qiáng)現(xiàn)實(shí)中深度一致性問題的研究[D]. 劉自強(qiáng).沈陽工業(yè)大學(xué) 2017
[4]增強(qiáng)現(xiàn)實(shí)沙盒實(shí)現(xiàn)及地形重建技術(shù)研究[D]. 王心丹.山東大學(xué) 2017
本文編號(hào):3502295
【文章來源】:華中科技大學(xué)湖北省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:59 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
單目深度估計(jì)應(yīng)用
2 相關(guān)技術(shù)本章主要介紹與本研究關(guān)系緊密的相關(guān)技術(shù),包括了對(duì)于視覺 SLAM 系統(tǒng)的簡單介紹,對(duì)于特征點(diǎn)法進(jìn)行相機(jī)姿態(tài)估計(jì)的詳細(xì)推導(dǎo),對(duì)于視覺 SLAM 之中深度濾波器理論的重點(diǎn)分析。2.1 視覺 SLAM 系統(tǒng)進(jìn)行單目深度估計(jì)的傳統(tǒng)方法包括了運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SFM,Structure From Motion)技術(shù)和即時(shí)定位與地圖重建(SLAM,Simultaneous LocalizationAnd Mapping)技術(shù)。我們將以視覺 SLAM 技術(shù)為例對(duì)傳統(tǒng)方法進(jìn)行分析和介紹。如下圖 2-1 所示,經(jīng)典的視覺 SLAM 系統(tǒng)主要由傳感器,視覺里程計(jì)(VisualOdometry, VO),后端優(yōu)化(Optimization),回環(huán)檢測(Loop Closing)和建圖(Mapping)五個(gè)基本部分組成。
華 中 科 技 大 學(xué) 碩 士 學(xué) 位 論 文使用 ORB 特征進(jìn)行特征匹配時(shí),BRIFE 會(huì)使用漢明距離(兩數(shù)的個(gè)數(shù))來計(jì)算特征點(diǎn)之間的相似程度,計(jì)算速度更加快捷主要有暴力匹配和快速最近鄰兩種方法?紤]到實(shí)時(shí)性的要要采用快速最近鄰來進(jìn)行特征匹配。通過特征匹配找到了相鄰步就可以采用對(duì)極幾何和三角測量法對(duì)相機(jī)的姿態(tài)和特征點(diǎn)的何在兩個(gè)視角下的成像具有很大的關(guān)聯(lián)性,在具有共視關(guān)系的像,這種隱藏的約束關(guān)系被稱為對(duì)極幾何,我們將利用這一關(guān)系理如下圖 2-2 所示。
【參考文獻(xiàn)】:
期刊論文
[1]基于信息融合的無人駕駛圖像數(shù)據(jù)處理方法[J]. 戴耀威,高正創(chuàng),唐樹銀,李宍宇,葉繼銘. 網(wǎng)絡(luò)安全技術(shù)與應(yīng)用. 2019(04)
[2]無人駕駛汽車環(huán)境感知技術(shù)綜述[J]. 孫志國. 南方農(nóng)機(jī). 2019(03)
[3]深度學(xué)習(xí)在軍用光纜線路無人機(jī)巡檢中的應(yīng)用[J]. 張明江,李紅衛(wèi),趙衛(wèi)虎,夏貴進(jìn),王程遠(yuǎn). 光通信研究. 2018(06)
[4]基于計(jì)算機(jī)視覺及深度學(xué)習(xí)的無人機(jī)手勢控制系統(tǒng)[J]. 馬樂樂,李照洋,董嘉蓉,侯永宏. 計(jì)算機(jī)工程與科學(xué). 2018(05)
[5]基于深度學(xué)習(xí)的無人機(jī)人機(jī)交互系統(tǒng)[J]. 侯永宏,葉秀峰,張亮,李照洋,董嘉蓉. 天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版). 2017(09)
[6]基于深度學(xué)習(xí)的無人車夜視圖像語義分割[J]. 高凱珺,孫韶媛,姚廣順,趙海濤. 應(yīng)用光學(xué). 2017(03)
博士論文
[1]基于RGB-D攝像機(jī)的增強(qiáng)現(xiàn)實(shí)系統(tǒng)關(guān)鍵技術(shù)研究[D]. 李佳寧.浙江大學(xué) 2017
碩士論文
[1]基于深度學(xué)習(xí)的無人機(jī)遙感圖像目標(biāo)識(shí)別方法研究[D]. 祝思君.北京建筑大學(xué) 2018
[2]基于計(jì)算機(jī)視覺和深度學(xué)習(xí)的自動(dòng)駕駛方法研究[D]. 白辰甲.哈爾濱工業(yè)大學(xué) 2017
[3]增強(qiáng)現(xiàn)實(shí)中深度一致性問題的研究[D]. 劉自強(qiáng).沈陽工業(yè)大學(xué) 2017
[4]增強(qiáng)現(xiàn)實(shí)沙盒實(shí)現(xiàn)及地形重建技術(shù)研究[D]. 王心丹.山東大學(xué) 2017
本文編號(hào):3502295
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3502295.html
最近更新
教材專著