天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于卷積神經(jīng)網(wǎng)絡(luò)的雙目立體視覺匹配算法研究

發(fā)布時(shí)間:2021-06-11 07:04
  雙目立體視覺是計(jì)算機(jī)視覺領(lǐng)域內(nèi)的一項(xiàng)重要研究課題,它通過一個(gè)場景在不同視角下捕獲的多個(gè)二維成像可以重建3D場景,在無人駕駛、虛擬現(xiàn)實(shí)和機(jī)器人等領(lǐng)域有著廣泛的應(yīng)用前景。立體匹配是雙目立體技術(shù)中的最重要、最困難的一個(gè)環(huán)節(jié),立體匹配的目標(biāo)是通過給定立體相機(jī)拍攝到的兩個(gè)圖像,計(jì)算參考圖像中的每個(gè)像素的視差,得到視差圖從而計(jì)算深度。傳統(tǒng)的方法一般遵循四步流程:匹配代價(jià)計(jì)算、代價(jià)聚合、視差計(jì)算和視差優(yōu)化,但是這種手工制作特征描述符的方法往往受到效率低下的困擾。最近幾年,由于卷積神經(jīng)網(wǎng)絡(luò)超強(qiáng)的特征提取能力,一度取代了傳統(tǒng)手工制作特征描述符的方法;谏窠(jīng)網(wǎng)絡(luò)的方法可以將視差估計(jì)看成一項(xiàng)學(xué)習(xí)任務(wù),利用大量數(shù)據(jù)不斷優(yōu)化模型參數(shù)進(jìn)行學(xué)習(xí),使用學(xué)習(xí)過后的神經(jīng)網(wǎng)絡(luò)模型處理輸入圖像輸出視差圖。相對(duì)于傳統(tǒng)立體匹配方法,基于卷積神經(jīng)網(wǎng)絡(luò)的方法可以更好地捕獲局部上下文信息,對(duì)于不適定區(qū)域(遮擋、弱紋理和深度不連續(xù)等)的表現(xiàn)更加魯棒,在匹配速度和精度方面都有了不錯(cuò)的提升。本文對(duì)雙目立體視覺匹配算法的國內(nèi)外研究現(xiàn)狀和重難點(diǎn)問題做了深入的了解和研究,針對(duì)傳統(tǒng)四步法中多步驟、多模塊的任務(wù)處理方式導(dǎo)致的一些問題,容易造成誤差累... 

【文章來源】:青島理工大學(xué)山東省

【文章頁數(shù)】:69 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于卷積神經(jīng)網(wǎng)絡(luò)的雙目立體視覺匹配算法研究


Middlebury2001數(shù)據(jù)集

數(shù)據(jù)集,圖像,立體匹配,雙目


青島理工大學(xué)工程碩士學(xué)位論文20兩組數(shù)據(jù)集都為訓(xùn)練圖像提供了真實(shí)的場景視差圖,并且可通過在線排行榜的方式對(duì)立體匹配算法進(jìn)行評(píng)估。兩組數(shù)據(jù)集圖像描繪的場景多為市區(qū)、鄉(xiāng)村和高速公路等自動(dòng)駕駛場景圖像。其包含了不同的場景、不同的光照和遮擋等多種圖像處理數(shù)據(jù),給雙目視覺研究人員帶來了巨大便利。下圖為KITTI2015數(shù)據(jù)集的部分圖像,依次為左圖像、右圖像和視差圖。圖2.7KITTI2015數(shù)據(jù)集部分圖像2.5本章小結(jié)在這一章節(jié)主要對(duì)雙目立體視覺和立體匹配的基本理論和概念做了介紹,首先介概述了雙目立體匹配視覺圖像獲娶立體矯正、立體匹配和三維重建這四個(gè)步驟,依次介紹各個(gè)步驟的主要任務(wù)和內(nèi)容。然后介紹了雙目立體視覺的原理,包括攝像機(jī)的成像原理以及坐標(biāo)變換過程中用的四個(gè)坐標(biāo)系:世界坐標(biāo)系、相機(jī)坐標(biāo)系、圖像坐標(biāo)系、像素坐標(biāo)系,并詳細(xì)介紹了四個(gè)坐標(biāo)系的內(nèi)容和轉(zhuǎn)換關(guān)系。然后介紹了圖像修正過程中用到的極線約束和立體校正的原理及內(nèi)容。詳細(xì)概述了雙目視覺深度感知原理與深度計(jì)算的內(nèi)容?偨Y(jié)了立體匹配算法的(1)匹配代價(jià)計(jì)算(2)代價(jià)聚合(3)視差計(jì)算(4)視差優(yōu)化四個(gè)步驟的具體任務(wù)和方法,并詳細(xì)介紹了局部匹配算法和全局匹配算法的區(qū)別和特點(diǎn)。最后介紹了衡量立體匹配算

激活函數(shù),函數(shù)


青島理工大學(xué)工程碩士學(xué)位論文25(1)Sigmoid激活函數(shù)函數(shù)的定義為:1()1xfxe=+(3-4)其值域?yàn)?0,1)。圖3.2sigmoid激活函數(shù)如上圖所示,sigmoid函數(shù)使用較早也是目前用的最多的激活函數(shù)之一,它呈指數(shù)函數(shù)形狀,這種具有抑制性的函數(shù)十分符合物理上的神經(jīng)元的特性。sigmoid函數(shù)能夠把輸入連續(xù)實(shí)值變換為0和1之間的輸出,由于其單調(diào)連續(xù)、輸出范圍確定、易于求導(dǎo)等特性,非常適用于輸出層作為激活函數(shù),也經(jīng)常表示成元素的概率或者用于數(shù)據(jù)的歸一化。Sigmoid函數(shù)用作神經(jīng)網(wǎng)絡(luò)的激活函數(shù)有三個(gè)主要缺陷:軟飽和性導(dǎo)致的梯度消失問題,即x趨于無窮時(shí)函數(shù)的兩側(cè)導(dǎo)數(shù)逐漸趨于0,在反向傳播跟新參數(shù)時(shí)梯度相乘的結(jié)果逐步趨于0導(dǎo)致梯度在傳播過程中逐漸消失,前層神經(jīng)網(wǎng)絡(luò)的參數(shù)難以更新;sigmoid函數(shù)的值域?qū)е缕矛F(xiàn)象,即函數(shù)輸出并非以0為中心而是全大于0的,那么在前向計(jì)算過程中后層神經(jīng)元得到的都是前層神經(jīng)元傳遞的非0均值輸入數(shù)據(jù),導(dǎo)致在反向傳播時(shí)權(quán)重w的變化要么全正要么全負(fù)使得權(quán)重更新不理想;sigmoid函數(shù)是一種冪運(yùn)算函數(shù),運(yùn)算量大使得訓(xùn)練相對(duì)麻煩。(2)Tanh激活函數(shù)函數(shù)的定義為:-()tanh()1xxxeefxxe=+(3-5)其值域?yàn)?-1,1)。

【參考文獻(xiàn)】:
期刊論文
[1]人工神經(jīng)網(wǎng)絡(luò)的發(fā)展綜述[J]. 夏瑜潞.  電腦知識(shí)與技術(shù). 2019(20)
[2]結(jié)合CNN與分割約束的立體匹配算法[J]. 馬偉,李曈,龔超凡,丁治明.  北京工業(yè)大學(xué)學(xué)報(bào). 2019(05)
[3]基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的立體匹配方法[J]. 習(xí)路,陸濟(jì)湘,涂婷.  計(jì)算機(jī)工程與設(shè)計(jì). 2018(09)
[4]一種“客觀度量”和“深度學(xué)習(xí)”共同驅(qū)動(dòng)的立體匹配方法[J]. 董惠心,任鵬,余興瑞,王廷偉.  現(xiàn)代電子技術(shù). 2018(01)
[5]人工神經(jīng)網(wǎng)絡(luò)發(fā)展現(xiàn)狀綜述[J]. 王廣.  中小企業(yè)管理與科技(下旬刊). 2017(02)
[6]基于改進(jìn)梯度和自適應(yīng)窗口的立體匹配算法[J]. 祝世平,李政.  光學(xué)學(xué)報(bào). 2015(01)
[7]基于Census變換和改進(jìn)自適應(yīng)窗口的立體匹配算法[J]. 周龍,徐貴力,李開宇,王彪,田裕鵬,陳欣.  航空學(xué)報(bào). 2012(05)
[8]寬基線圖像特征點(diǎn)的立體匹配[J]. 陳望明,劉連芳.  計(jì)算機(jī)應(yīng)用研究. 2008(12)
[9]人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展綜述[J]. 王輝.  電腦知識(shí)與技術(shù). 2008(30)
[10]自適應(yīng)窗口快速立體匹配[J]. 周秀芝,文貢堅(jiān),王潤生.  計(jì)算機(jī)學(xué)報(bào). 2006(03)

碩士論文
[1]基于卷積神經(jīng)網(wǎng)絡(luò)的立體匹配技術(shù)研究[D]. 陳拓.浙江大學(xué) 2017
[2]雙目立體視覺匹配方法研究[D]. 王杰瓊.昆明理工大學(xué) 2016
[3]基于深度學(xué)習(xí)的立體匹配研究[D]. 戴杰.北京郵電大學(xué) 2016



本文編號(hào):3224069

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3224069.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶ff023***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com