天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動(dòng)化論文 >

基于單目相機(jī)的深度估計(jì)系統(tǒng)

發(fā)布時(shí)間:2021-11-18 05:24
  近些年,隨著計(jì)算機(jī)軟件算法的創(chuàng)新以及硬件計(jì)算力的突破,深度學(xué)習(xí)技術(shù)獲得了突破性的發(fā)展與進(jìn)步,人類正在采用深度學(xué)習(xí)技術(shù)構(gòu)建人工智能的新時(shí)代。人工智能研究的一個(gè)重要領(lǐng)域就是計(jì)算機(jī)視覺,從目前進(jìn)展來看,深度學(xué)習(xí)技術(shù)成功解決了二維視覺之中的一個(gè)又一個(gè)難題,計(jì)算機(jī)視覺方面的研究重點(diǎn)正在慢慢的從二維視覺轉(zhuǎn)向三維視覺。其中,單目深度估計(jì)就是三維視覺中一個(gè)十分基礎(chǔ)但又很有挑戰(zhàn)性的工作。單目深度估計(jì)具有廣闊的發(fā)展前景,應(yīng)用領(lǐng)域包括無人車、移動(dòng)機(jī)器人、增強(qiáng)現(xiàn)實(shí)(AR)、三維重建等。目前,現(xiàn)有的單目深度估計(jì)方法都存在局限性,傳統(tǒng)方法(SFM、SLAM)利用幀間的運(yùn)動(dòng)來估計(jì)相機(jī)姿態(tài),然后采用三角測量法來恢復(fù)場景深度,得到的深度圖往往是稀疏的,半稠密的。而利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行單目深度估計(jì)雖然可以得到稠密的深度圖,但是尚處于發(fā)展階段不夠成熟,精度還有待提高。本文致力于設(shè)計(jì)一個(gè)快速準(zhǔn)確的單目深度估計(jì)系統(tǒng)。整個(gè)系統(tǒng)主要由兩大部分組成:第一部分是網(wǎng)絡(luò)部分。本文設(shè)計(jì)了一個(gè)59層的卷積神經(jīng)網(wǎng)絡(luò)用來進(jìn)行深度圖和不確定度分布圖的預(yù)測。其中,不確定度分布圖中每一個(gè)像素點(diǎn)的值表示的是該像素點(diǎn)深度預(yù)測值的不確定度;第二部分是幀間信息... 

【文章來源】:華中科技大學(xué)湖北省 211工程院校 985工程院校 教育部直屬院校

【文章頁數(shù)】:59 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于單目相機(jī)的深度估計(jì)系統(tǒng)


單目深度估計(jì)應(yīng)用

地圖,視覺,系統(tǒng)框架


2 相關(guān)技術(shù)本章主要介紹與本研究關(guān)系緊密的相關(guān)技術(shù),包括了對(duì)于視覺 SLAM 系統(tǒng)的簡單介紹,對(duì)于特征點(diǎn)法進(jìn)行相機(jī)姿態(tài)估計(jì)的詳細(xì)推導(dǎo),對(duì)于視覺 SLAM 之中深度濾波器理論的重點(diǎn)分析。2.1 視覺 SLAM 系統(tǒng)進(jìn)行單目深度估計(jì)的傳統(tǒng)方法包括了運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SFM,Structure From Motion)技術(shù)和即時(shí)定位與地圖重建(SLAM,Simultaneous LocalizationAnd Mapping)技術(shù)。我們將以視覺 SLAM 技術(shù)為例對(duì)傳統(tǒng)方法進(jìn)行分析和介紹。如下圖 2-1 所示,經(jīng)典的視覺 SLAM 系統(tǒng)主要由傳感器,視覺里程計(jì)(VisualOdometry, VO),后端優(yōu)化(Optimization),回環(huán)檢測(Loop Closing)和建圖(Mapping)五個(gè)基本部分組成。

原理圖,對(duì)極幾何,原理,特征匹配


華 中 科 技 大 學(xué) 碩 士 學(xué) 位 論 文使用 ORB 特征進(jìn)行特征匹配時(shí),BRIFE 會(huì)使用漢明距離(兩數(shù)的個(gè)數(shù))來計(jì)算特征點(diǎn)之間的相似程度,計(jì)算速度更加快捷主要有暴力匹配和快速最近鄰兩種方法?紤]到實(shí)時(shí)性的要要采用快速最近鄰來進(jìn)行特征匹配。通過特征匹配找到了相鄰步就可以采用對(duì)極幾何和三角測量法對(duì)相機(jī)的姿態(tài)和特征點(diǎn)的何在兩個(gè)視角下的成像具有很大的關(guān)聯(lián)性,在具有共視關(guān)系的像,這種隱藏的約束關(guān)系被稱為對(duì)極幾何,我們將利用這一關(guān)系理如下圖 2-2 所示。

【參考文獻(xiàn)】:
期刊論文
[1]基于信息融合的無人駕駛圖像數(shù)據(jù)處理方法[J]. 戴耀威,高正創(chuàng),唐樹銀,李宍宇,葉繼銘.  網(wǎng)絡(luò)安全技術(shù)與應(yīng)用. 2019(04)
[2]無人駕駛汽車環(huán)境感知技術(shù)綜述[J]. 孫志國.  南方農(nóng)機(jī). 2019(03)
[3]深度學(xué)習(xí)在軍用光纜線路無人機(jī)巡檢中的應(yīng)用[J]. 張明江,李紅衛(wèi),趙衛(wèi)虎,夏貴進(jìn),王程遠(yuǎn).  光通信研究. 2018(06)
[4]基于計(jì)算機(jī)視覺及深度學(xué)習(xí)的無人機(jī)手勢控制系統(tǒng)[J]. 馬樂樂,李照洋,董嘉蓉,侯永宏.  計(jì)算機(jī)工程與科學(xué). 2018(05)
[5]基于深度學(xué)習(xí)的無人機(jī)人機(jī)交互系統(tǒng)[J]. 侯永宏,葉秀峰,張亮,李照洋,董嘉蓉.  天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版). 2017(09)
[6]基于深度學(xué)習(xí)的無人車夜視圖像語義分割[J]. 高凱珺,孫韶媛,姚廣順,趙海濤.  應(yīng)用光學(xué). 2017(03)

博士論文
[1]基于RGB-D攝像機(jī)的增強(qiáng)現(xiàn)實(shí)系統(tǒng)關(guān)鍵技術(shù)研究[D]. 李佳寧.浙江大學(xué) 2017

碩士論文
[1]基于深度學(xué)習(xí)的無人機(jī)遙感圖像目標(biāo)識(shí)別方法研究[D]. 祝思君.北京建筑大學(xué) 2018
[2]基于計(jì)算機(jī)視覺和深度學(xué)習(xí)的自動(dòng)駕駛方法研究[D]. 白辰甲.哈爾濱工業(yè)大學(xué) 2017
[3]增強(qiáng)現(xiàn)實(shí)中深度一致性問題的研究[D]. 劉自強(qiáng).沈陽工業(yè)大學(xué) 2017
[4]增強(qiáng)現(xiàn)實(shí)沙盒實(shí)現(xiàn)及地形重建技術(shù)研究[D]. 王心丹.山東大學(xué) 2017



本文編號(hào):3502295

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3502295.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶f0515***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com