天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

基于雙目視覺(jué)的深度重建技術(shù)的研究和應(yīng)用

發(fā)布時(shí)間:2017-03-23 23:01

  本文關(guān)鍵詞:基于雙目視覺(jué)的深度重建技術(shù)的研究和應(yīng)用,由筆耕文化傳播整理發(fā)布。


【摘要】:近幾十年來(lái)年來(lái),計(jì)算機(jī)技術(shù)獲得了長(zhǎng)足的進(jìn)步和發(fā)展,該技術(shù)已經(jīng)在人們的生產(chǎn)和生活領(lǐng)域許多方面獲得了廣泛的應(yīng)用,尤其在某些人力不可替代的高精度,高安全性要求的工作中,起到了重要的作用。作為計(jì)算機(jī)技術(shù)的重要分支,計(jì)算機(jī)視覺(jué)技術(shù)對(duì)生產(chǎn)和生活領(lǐng)域起到的輔助作用尤為重要。作為計(jì)算機(jī)視覺(jué)的重要分支,雙目立體視覺(jué)已經(jīng)深入到生產(chǎn)和生活的許多領(lǐng)域,是計(jì)算機(jī)應(yīng)用學(xué)科的熱門(mén)話(huà)題。雙目立體視覺(jué)技術(shù)是建立在視差原理的理論基礎(chǔ)上,使用雙目攝像機(jī)采集被測(cè)物體的左右視圖,通過(guò)立體匹配算法計(jì)算兩幅圖像之間的位置偏差,從而獲得物體三維幾何信息的方法。通過(guò)綜合處理和分析左右視圖,并計(jì)算他們之間對(duì)應(yīng)點(diǎn)的差別,我們能夠從中獲取物體的深度信息。當(dāng)該深度信息足夠精確,我們可以將其應(yīng)用于生產(chǎn)和生活的各個(gè)領(lǐng)域,提高生產(chǎn)效率和生活質(zhì)量。本文結(jié)合以上理論基礎(chǔ)和實(shí)際需求,深入的研究和探討基于雙目視覺(jué)的深度重建問(wèn)題,并提出一種基于雙目視覺(jué)的深度重建技術(shù),對(duì)其進(jìn)行產(chǎn)品原型的實(shí)現(xiàn),并初步應(yīng)用到工業(yè)生產(chǎn)領(lǐng)域中的傳送帶作業(yè)技術(shù)中,在實(shí)踐中不斷驗(yàn)證理論的實(shí)用性和可靠性。該技術(shù)采用Open CV(Open Source Computer Vision Library,開(kāi)源的計(jì)算機(jī)視覺(jué)庫(kù)),結(jié)合MFC(Microsoft Foundation Classes,微軟基礎(chǔ)庫(kù))實(shí)現(xiàn),主要涉及棋盤(pán)立體標(biāo)定、Bouguet立體校正、立體匹配、深度重建等關(guān)鍵技術(shù)。經(jīng)過(guò)棋盤(pán)角點(diǎn)檢測(cè),參數(shù)矩陣計(jì)算,立體匹配,深度值計(jì)算等關(guān)鍵流程后,我們可以得到待測(cè)物體的深度值,從而達(dá)到程序的編寫(xiě)目的。值得指出的是,為了增強(qiáng)立體匹配的效果,我們除了直接調(diào)用Open CV為我們提供的BM塊匹配算法進(jìn)行立體匹配外,也對(duì)Open CV未提供的基于線(xiàn)性生長(zhǎng)的立體匹配算法進(jìn)行了改進(jìn),并將其與Open CV相結(jié)合,得到了更優(yōu)的立體匹配結(jié)果。
【關(guān)鍵詞】:雙目視覺(jué) 深度重建 OpenCV 立體標(biāo)定 立體匹配
【學(xué)位授予單位】:吉林大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類(lèi)號(hào)】:TP391.41
【目錄】:
  • 摘要4-5
  • Abstract5-8
  • 第一章 緒論8-13
  • 1.1 研究背景8-9
  • 1.2 國(guó)內(nèi)外研究現(xiàn)狀9-10
  • 1.3 本文的主要工作10-11
  • 1.4 本文的內(nèi)容安排11-13
  • 第二章 基于雙目視覺(jué)的深度重建技術(shù)綜述13-19
  • 2.1 基于雙目視覺(jué)的深度重建技術(shù)原理13-16
  • 2.1.1 單目攝像機(jī)模型13-15
  • 2.1.2 雙目攝像機(jī)15-16
  • 2.2 基于雙目視覺(jué)的深度重建技術(shù)的基本流程16-17
  • 2.3 本章小結(jié)17-19
  • 第三章 棋盤(pán)標(biāo)定方法和Bouguet立體校正的研究和優(yōu)化19-30
  • 3.1 棋盤(pán)標(biāo)定方法19-25
  • 3.1.1 立體標(biāo)定的目的19
  • 3.1.2 棋盤(pán)標(biāo)定方法的步驟和原理19-25
  • 3.2 Bouguet立體校正方法25-27
  • 3.2.1 立體校正的目的25
  • 3.2.2 Bouguet立體校正方法的步驟和原理25-27
  • 3.3 對(duì)立體標(biāo)定方法的實(shí)現(xiàn)和優(yōu)化27-29
  • 3.4 本章小結(jié)29-30
  • 第四章 立體匹配算法的研究與改進(jìn)30-38
  • 4.1 立體匹配的原理簡(jiǎn)介30-33
  • 4.1.1 立體匹配的目的30-31
  • 4.1.2 立體匹配與深度重建的關(guān)系31-32
  • 4.1.3 立體匹配算法尚存在的難點(diǎn)32-33
  • 4.2 基于線(xiàn)性生長(zhǎng)的立體匹配算法的實(shí)現(xiàn)33-35
  • 4.3 基于線(xiàn)性生長(zhǎng)的立體匹配算法的改進(jìn)35-37
  • 4.3.1 對(duì)全局能量函數(shù)的改進(jìn)35-36
  • 4.3.2 對(duì)立體匹配結(jié)果的后處理36-37
  • 4.4 基于圖割的立體匹配算法37
  • 4.5 本章小結(jié)37-38
  • 第五章 基于opencv的雙目視覺(jué)深度重建系統(tǒng)38-57
  • 5.1 實(shí)驗(yàn)設(shè)備簡(jiǎn)介38-39
  • 5.2 開(kāi)發(fā)工具簡(jiǎn)介39-42
  • 5.3 關(guān)鍵環(huán)節(jié)算法選擇42-43
  • 5.4 實(shí)驗(yàn)結(jié)果43-55
  • 5.5 本章小結(jié)55-57
  • 第六章 總結(jié)與展望57-59
  • 6.1 總結(jié)57
  • 6.2 展望57-59
  • 參考文獻(xiàn)59-60
  • 作者簡(jiǎn)介及在學(xué)期間所取得的科研成果60-61
  • 致謝61

【相似文獻(xiàn)】

中國(guó)期刊全文數(shù)據(jù)庫(kù) 前10條

1 李海軍;;基于雙目視覺(jué)的自動(dòng)跟蹤系統(tǒng)應(yīng)用[J];火力與指揮控制;2010年01期

2 胡天翔;鄭加強(qiáng);周宏平;;基于雙目視覺(jué)的樹(shù)木圖像測(cè)距方法[J];農(nóng)業(yè)機(jī)械學(xué)報(bào);2010年11期

3 李夢(mèng)和;林川;潘盛輝;;基于雙目視覺(jué)的礦井機(jī)車(chē)定位方法[J];煤礦機(jī)械;2012年04期

4 祝世平,強(qiáng)錫富;基于坐標(biāo)測(cè)量機(jī)的雙目視覺(jué)測(cè)距誤差分析[J];電子測(cè)量與儀器學(xué)報(bào);2000年02期

5 汪倩倩;申忠宇;張亮;;基于雙目視覺(jué)模型的彩色目標(biāo)實(shí)時(shí)檢測(cè)與定位[J];南京師范大學(xué)學(xué)報(bào)(工程技術(shù)版);2008年01期

6 潘浩;趙宇明;;基于雙目視覺(jué)的客流監(jiān)測(cè)系統(tǒng)[J];微計(jì)算機(jī)信息;2009年33期

7 單寶華;申宇;;基于雙目視覺(jué)的拉索模型自由振動(dòng)監(jiān)測(cè)試驗(yàn)[J];土木工程學(xué)報(bào);2012年11期

8 紀(jì)超;王慶;;基于雙目視覺(jué)的自主空中加油算法研究與仿真[J];系統(tǒng)仿真學(xué)報(bào);2013年06期

9 岳亮;;一種基于雙目視覺(jué)的安全車(chē)距測(cè)量方法[J];電視技術(shù);2013年15期

10 許明杰,王洪榮;雙目視覺(jué)中恢復(fù)模型點(diǎn)的方法──公垂線(xiàn)法[J];指揮技術(shù)學(xué)院學(xué)報(bào);1997年02期

中國(guó)重要會(huì)議論文全文數(shù)據(jù)庫(kù) 前7條

1 孟環(huán)標(biāo);楊興強(qiáng);李雪梅;;基于雙目視覺(jué)的測(cè)量系統(tǒng)誤差分析[A];第五屆全國(guó)幾何設(shè)計(jì)與計(jì)算學(xué)術(shù)會(huì)議論文集[C];2011年

2 朱宗磊;殷福亮;;基于雙目視覺(jué)的目標(biāo)檢測(cè)與跟蹤系統(tǒng)[A];2010年通信理論與信號(hào)處理學(xué)術(shù)年會(huì)論文集[C];2010年

3 王榮本;張明恒;毛曉燕;;雙目視覺(jué)技術(shù)在環(huán)境探測(cè)中的應(yīng)用[A];中國(guó)宇航學(xué)會(huì)深空探測(cè)技術(shù)專(zhuān)業(yè)委員會(huì)第二屆學(xué)術(shù)會(huì)議論文集[C];2005年

4 張靜;李琳;劉曉平;;基于雙目視覺(jué)的虛擬手的實(shí)現(xiàn)[A];計(jì)算機(jī)技術(shù)與應(yīng)用進(jìn)展——全國(guó)第17屆計(jì)算機(jī)科學(xué)與技術(shù)應(yīng)用(CACIS)學(xué)術(shù)會(huì)議論文集(上冊(cè))[C];2006年

5 吳濤;劉欣;;基于單雙目視覺(jué)信息融合的障礙檢測(cè)方法[A];中國(guó)宇航學(xué)會(huì)深空探測(cè)技術(shù)專(zhuān)業(yè)委員會(huì)第二屆學(xué)術(shù)會(huì)議論文集[C];2005年

6 孫明;;基于雙目視覺(jué)的移動(dòng)機(jī)器人避障研究[A];中國(guó)農(nóng)業(yè)工程學(xué)會(huì)2011年學(xué)術(shù)年會(huì)論文集[C];2011年

7 杜英魁;韓建達(dá);唐延?xùn)|;;基于雙目重建不確定性的動(dòng)態(tài)特征濾除[A];第七屆全國(guó)信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2009年

中國(guó)博士學(xué)位論文全文數(shù)據(jù)庫(kù) 前2條

1 陳學(xué)惠;基于移動(dòng)機(jī)器人雙目視覺(jué)的井下三維場(chǎng)景重建方法研究[D];中國(guó)礦業(yè)大學(xué)(北京);2012年

2 陳希章;基于雙目視覺(jué)的弧焊機(jī)器人焊縫三維信息獲取研究[D];上海交通大學(xué);2007年

中國(guó)碩士學(xué)位論文全文數(shù)據(jù)庫(kù) 前10條

1 麥樹(shù)彬;基于雙目視覺(jué)的色盲輔助技術(shù)的研究[D];華南理工大學(xué);2015年

2 徐宏;基于雙目視覺(jué)和稀疏表示的智能倒車(chē)控制研究[D];西南交通大學(xué);2015年

3 李輝;田間機(jī)器人的雙目視覺(jué)系統(tǒng)誤差分析研究[D];內(nèi)蒙古大學(xué);2015年

4 逯沛龍;基于FPGA的雙目視覺(jué)圖像預(yù)處理系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年

5 王婷婷;基于GPU的雙目視覺(jué)運(yùn)動(dòng)目標(biāo)檢測(cè)跟蹤算法研究[D];哈爾濱工業(yè)大學(xué);2015年

6 王昌盛;基于ORB算法的雙目視覺(jué)測(cè)量研究[D];哈爾濱工業(yè)大學(xué);2015年

7 趙程;具有圓面特征的非合作目標(biāo)雙目視覺(jué)位姿測(cè)量[D];哈爾濱工業(yè)大學(xué);2015年

8 路研研;在軌航天器雙目視覺(jué)圖像采集與處理系統(tǒng)研制[D];哈爾濱工業(yè)大學(xué);2015年

9 曹之樂(lè);基于雙目視覺(jué)的焦點(diǎn)定位方法研究與應(yīng)用[D];重慶理工大學(xué);2015年

10 王洪偉;基于雙目視覺(jué)的紅綠燈路口安全距離預(yù)警研究[D];安徽工程大學(xué);2015年


  本文關(guān)鍵詞:基于雙目視覺(jué)的深度重建技術(shù)的研究和應(yīng)用,,由筆耕文化傳播整理發(fā)布。



本文編號(hào):264694

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/264694.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)05a03***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com