基于ToF-雙目融合的深度信息獲取技術(shù)研究
發(fā)布時間:2021-03-03 21:09
深度信息的獲取是三維應(yīng)用領(lǐng)域所必需的關(guān)鍵技術(shù)之一。近幾年來,隨著三維技術(shù)應(yīng)用的不斷拓展,人機(jī)交互、自動駕駛、三維重建以及智能監(jiān)控等領(lǐng)域?qū)ι疃全@取技術(shù)的精度和場景適應(yīng)能力有了更高的要求。因此,進(jìn)一步提升深度獲取技術(shù)的精確性和魯棒性成為了當(dāng)前三維感知領(lǐng)域中亟待解決的問題。在目前眾多深度信息獲取技術(shù)中,雙目立體視覺可以看作被動式深度獲取技術(shù)的代表,而ToF則可以看作是主動式深度獲取技術(shù)的代表,單獨使用這兩種技術(shù)不可避免會存在一些缺陷,同時二者也具有優(yōu)勢互補的特點,因此將兩者融合起來獲取深度信息已成為三維成像領(lǐng)域的一個重要研究方向。本文以提升深度獲取技術(shù)的精確性和魯棒性為研究目標(biāo),根據(jù)主動式脈沖型ToF深度獲取技術(shù)和被動式雙目立體視覺深度獲取技術(shù)的特點進(jìn)行了ToF-雙目融合相關(guān)技術(shù)的分析和研究。本文具體內(nèi)容和創(chuàng)新性主要體現(xiàn)在以下兩個方面:1.本文提出了一種基于半盲反卷積的脈沖型ToF深度圖去噪算法。針對提高深度信息精度的需求,該算法直接設(shè)計脈沖型ToF深度相機(jī)原始測量值的正則化器,避免了傳統(tǒng)的去噪方法可能對像素值本身造成的誤差。結(jié)合二階總廣義變分的數(shù)學(xué)模型去設(shè)計目標(biāo)函數(shù),該算法首先估計出了每個...
【文章來源】:北京工業(yè)大學(xué)北京市 211工程院校
【文章頁數(shù)】:79 頁
【學(xué)位級別】:碩士
【圖文】:
深度獲取技術(shù)分類圖
圖 1-2 主流 ToF 深度相機(jī)Fig. 1-2 Mainstream ToF depth cameras1.2.2 雙目立體深度獲取技術(shù)研究現(xiàn)狀被動式雙目立體視覺深度獲取方法的核心問題是立體匹配問題,立體匹配算法就是尋找不同位置的對應(yīng)點求取視差的過程,由于雙目相機(jī)的位置不同,場景中的同一點在相機(jī)感光元件上的對應(yīng)點也會不同,這一點在不同圖像上的位置也不一樣,那么這個位置差就是視差。一直以來,立體匹配算法都作為一個經(jīng)典的視覺問題而備受研究者們青睞。20 世紀(jì) 70 年代,美國麻省理工大學(xué)的 Marr[27]提出了一個還原三維場景的視覺理論。該理論分為三步,第一步是獲取場景的二維圖像;第二步是將二維圖像轉(zhuǎn)為 2.5 維,最后是將前兩步提取的信息還原成三維信息。立體匹配屬于第一和第二步。在這個視覺理論的基礎(chǔ)上,誕生出很多優(yōu)秀的立體匹配算法。Scharstein和 Szeliski[28]根據(jù)視差計算方式的不同,將目前出現(xiàn)的匹配算法大致分成兩類:局部立體匹配算法和全局立體匹配算法,下面主要介紹這兩類立體匹配算法。
的反卷積問題,引出了二階總廣義變分的數(shù)學(xué)模型來解決這一問題;其次利用二階總廣義變分的數(shù)學(xué)模型的特點及去噪優(yōu)勢和 ADMM 算法求解能量函數(shù)的原理,結(jié)合二階總廣義變分的數(shù)學(xué)模型和設(shè)計脈沖型 ToF 深度圖像原始測量值的正則化器,提出了本章算法和求解的過程;最后,給出了該算法在標(biāo)準(zhǔn)數(shù)據(jù)集和本文采集的數(shù)據(jù)上的去噪結(jié)果對比,并對本章內(nèi)容進(jìn)行了總結(jié)。第 4 章提出了基于 ToF-雙目融合的深度獲取算法。在融合算法進(jìn)行之前,首先對圖像進(jìn)行預(yù)處理,包括多相機(jī)標(biāo)定和第 3 章給出的深度圖去噪。其次,利用有效 ToF 深度信息重新設(shè)計了匹配代價函數(shù),引導(dǎo)立體匹配算法,提出基于 K最近鄰的匹配代價聚合算法,完成初步深度融合。為了彌補在其他區(qū)域的影響,提出了基于權(quán)重的像素級融合,包括權(quán)重函數(shù)設(shè)計和歸一化處理,完成最終的ToF-雙目深度融合。最后,對該算法在數(shù)據(jù)集上進(jìn)行了驗證,并和其他算法進(jìn)行了對比,且對本章內(nèi)容進(jìn)行了總結(jié)。文章最后部分是結(jié)論,總結(jié)了論文整體工作,展示了論文研究成果,對未來工作進(jìn)行了展望。
【參考文獻(xiàn)】:
期刊論文
[1]基于TOF與立體匹配相融合的高分辨率深度獲取[J]. 劉嬌麗,李素梅,李永達(dá),劉富巖. 信息技術(shù). 2016(12)
[2]面向機(jī)器人磨拋的激光點云獲取及去噪算法[J]. 鄧文君,葉景楊,張鐵. 光學(xué)學(xué)報. 2016(08)
[3]基于種子點傳播的快速立體匹配[J]. 胡漢平,朱明. 光學(xué)精密工程. 2015(03)
[4]基于雙目立體視覺的快速人頭檢測方法[J]. 顧騁,錢惟賢,陳錢,顧國華,任建樂. 中國激光. 2014(01)
[5]基于自適應(yīng)分水嶺的圖割的立體匹配算法[J]. 祝世平,楊柳. 光學(xué)學(xué)報. 2013(03)
[6]脈沖雷達(dá)測距時間-電壓轉(zhuǎn)換方法[J]. 袁其平,范立潔,童崢嶸,楊秀峰,曹曄. 現(xiàn)代雷達(dá). 2012(06)
[7]基于視覺的三維重建技術(shù)綜述[J]. 佟帥,徐曉剛,易成濤,邵承永. 計算機(jī)應(yīng)用研究. 2011(07)
[8]一種快速雙目視覺立體匹配算法[J]. 狄紅衛(wèi),柴穎,李逵. 光學(xué)學(xué)報. 2009(08)
碩士論文
[1]基于雙目立體視覺的深度感知技術(shù)研究[D]. 馬源.北京理工大學(xué) 2015
[2]結(jié)構(gòu)光深度圖像獲取算法研究[D]. 王一嬌.清華大學(xué) 2014
[3]基于圖像分割和圖割的雙目立體三維重建[D]. 王桂芝.大連理工大學(xué) 2013
本文編號:3061941
【文章來源】:北京工業(yè)大學(xué)北京市 211工程院校
【文章頁數(shù)】:79 頁
【學(xué)位級別】:碩士
【圖文】:
深度獲取技術(shù)分類圖
圖 1-2 主流 ToF 深度相機(jī)Fig. 1-2 Mainstream ToF depth cameras1.2.2 雙目立體深度獲取技術(shù)研究現(xiàn)狀被動式雙目立體視覺深度獲取方法的核心問題是立體匹配問題,立體匹配算法就是尋找不同位置的對應(yīng)點求取視差的過程,由于雙目相機(jī)的位置不同,場景中的同一點在相機(jī)感光元件上的對應(yīng)點也會不同,這一點在不同圖像上的位置也不一樣,那么這個位置差就是視差。一直以來,立體匹配算法都作為一個經(jīng)典的視覺問題而備受研究者們青睞。20 世紀(jì) 70 年代,美國麻省理工大學(xué)的 Marr[27]提出了一個還原三維場景的視覺理論。該理論分為三步,第一步是獲取場景的二維圖像;第二步是將二維圖像轉(zhuǎn)為 2.5 維,最后是將前兩步提取的信息還原成三維信息。立體匹配屬于第一和第二步。在這個視覺理論的基礎(chǔ)上,誕生出很多優(yōu)秀的立體匹配算法。Scharstein和 Szeliski[28]根據(jù)視差計算方式的不同,將目前出現(xiàn)的匹配算法大致分成兩類:局部立體匹配算法和全局立體匹配算法,下面主要介紹這兩類立體匹配算法。
的反卷積問題,引出了二階總廣義變分的數(shù)學(xué)模型來解決這一問題;其次利用二階總廣義變分的數(shù)學(xué)模型的特點及去噪優(yōu)勢和 ADMM 算法求解能量函數(shù)的原理,結(jié)合二階總廣義變分的數(shù)學(xué)模型和設(shè)計脈沖型 ToF 深度圖像原始測量值的正則化器,提出了本章算法和求解的過程;最后,給出了該算法在標(biāo)準(zhǔn)數(shù)據(jù)集和本文采集的數(shù)據(jù)上的去噪結(jié)果對比,并對本章內(nèi)容進(jìn)行了總結(jié)。第 4 章提出了基于 ToF-雙目融合的深度獲取算法。在融合算法進(jìn)行之前,首先對圖像進(jìn)行預(yù)處理,包括多相機(jī)標(biāo)定和第 3 章給出的深度圖去噪。其次,利用有效 ToF 深度信息重新設(shè)計了匹配代價函數(shù),引導(dǎo)立體匹配算法,提出基于 K最近鄰的匹配代價聚合算法,完成初步深度融合。為了彌補在其他區(qū)域的影響,提出了基于權(quán)重的像素級融合,包括權(quán)重函數(shù)設(shè)計和歸一化處理,完成最終的ToF-雙目深度融合。最后,對該算法在數(shù)據(jù)集上進(jìn)行了驗證,并和其他算法進(jìn)行了對比,且對本章內(nèi)容進(jìn)行了總結(jié)。文章最后部分是結(jié)論,總結(jié)了論文整體工作,展示了論文研究成果,對未來工作進(jìn)行了展望。
【參考文獻(xiàn)】:
期刊論文
[1]基于TOF與立體匹配相融合的高分辨率深度獲取[J]. 劉嬌麗,李素梅,李永達(dá),劉富巖. 信息技術(shù). 2016(12)
[2]面向機(jī)器人磨拋的激光點云獲取及去噪算法[J]. 鄧文君,葉景楊,張鐵. 光學(xué)學(xué)報. 2016(08)
[3]基于種子點傳播的快速立體匹配[J]. 胡漢平,朱明. 光學(xué)精密工程. 2015(03)
[4]基于雙目立體視覺的快速人頭檢測方法[J]. 顧騁,錢惟賢,陳錢,顧國華,任建樂. 中國激光. 2014(01)
[5]基于自適應(yīng)分水嶺的圖割的立體匹配算法[J]. 祝世平,楊柳. 光學(xué)學(xué)報. 2013(03)
[6]脈沖雷達(dá)測距時間-電壓轉(zhuǎn)換方法[J]. 袁其平,范立潔,童崢嶸,楊秀峰,曹曄. 現(xiàn)代雷達(dá). 2012(06)
[7]基于視覺的三維重建技術(shù)綜述[J]. 佟帥,徐曉剛,易成濤,邵承永. 計算機(jī)應(yīng)用研究. 2011(07)
[8]一種快速雙目視覺立體匹配算法[J]. 狄紅衛(wèi),柴穎,李逵. 光學(xué)學(xué)報. 2009(08)
碩士論文
[1]基于雙目立體視覺的深度感知技術(shù)研究[D]. 馬源.北京理工大學(xué) 2015
[2]結(jié)構(gòu)光深度圖像獲取算法研究[D]. 王一嬌.清華大學(xué) 2014
[3]基于圖像分割和圖割的雙目立體三維重建[D]. 王桂芝.大連理工大學(xué) 2013
本文編號:3061941
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3061941.html
最近更新
教材專著