基于混合濾波的深度圖像修復(fù)算法的研究
發(fā)布時(shí)間:2021-01-24 16:22
隨著計(jì)算機(jī)視覺領(lǐng)域不斷地發(fā)展,用來描述場景深度信息的深度圖像也得到越來越多的關(guān)注。同時(shí),深度信息的獲取方式也越來越便捷、準(zhǔn)確,使得立體視覺、三維重建等方面的研究得到有力促進(jìn)。但是由于采集設(shè)備本身的局限及采集環(huán)境因素的影響,使得深度信息在獲取過程中存在一些問題,例如由于深度信息缺失而產(chǎn)生的圖像空洞、圖像光學(xué)噪聲及深度值的隨機(jī)跳變等問題。本文根據(jù)深度圖像在獲取過程中存在的問題,提出了相應(yīng)的修復(fù)技術(shù),以便得到更加精確的深度圖像,同時(shí)也促進(jìn)了立體視覺、三維重建等利用到深度信息的研究領(lǐng)域的發(fā)展。本文所做工作主要如下:(1)本文提出基于混合濾波的深度圖像修復(fù)算法來解決深度圖像在采集過程中出現(xiàn)的空洞問題。首先針對整體補(bǔ)洞策略提出了為空洞中的所有像素設(shè)置優(yōu)先級,優(yōu)先級取決于鄰域像素對中心空洞像素的支持度和可信度。在空洞填補(bǔ)的過程中,不斷地更新剩余像素的優(yōu)先級,保證優(yōu)先級最高的像素總能被優(yōu)先填補(bǔ);(2)在提出空洞像素優(yōu)先級的基礎(chǔ)上,本文進(jìn)一步對具體像素深度值的計(jì)算方法進(jìn)行優(yōu)化。本文在聯(lián)合雙邊濾波原理的基礎(chǔ)上,運(yùn)用全變分模型,從彩色圖像中提取出圖像的結(jié)構(gòu)信息和紋理信息,并將這兩種信息加入到深度值權(quán)重的計(jì)算...
【文章來源】:重慶大學(xué)重慶市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:61 頁
【學(xué)位級別】:碩士
【部分圖文】:
彩色圖像與對應(yīng)的深度圖像
到物體的距離,因此這種方法被稱為飛行時(shí)間測距,即 TOF =12 × + 360× , 為能量信號的波長, 為傳播過程中信號傳播的波形數(shù), 是位。雖然 TOF 測距方法的原理簡單,但得到較為準(zhǔn)確的測量結(jié)能量信號速度很快,如光波或是聲波信號,因此飛行時(shí)間的測量測距的嚴(yán)重誤差。所以在測量過程中,需要對飛行時(shí)間的測量時(shí)構(gòu)光測距。光測距是運(yùn)用三角測量原理來得到深度信息的。由于待測物體不平的情況,結(jié)構(gòu)光從光源投射到待測物體表面上,會(huì)在表面形深度相機(jī)采集到數(shù)字圖像,并求得特征點(diǎn)與攝像頭主點(diǎn)之間的目標(biāo)的深度圖像。而基于結(jié)構(gòu)光測距在深度圖像獲取方面的應(yīng)至場景,則傳感器采集到相應(yīng)的帶有結(jié)構(gòu)光的圖案。由于物體發(fā)光的模式圖案的形變,因此通過采集到的結(jié)構(gòu)光圖案中位置信過三角原理計(jì)算即可得到場景中各點(diǎn)的深度信息。
即使場景中沒有充足的結(jié)構(gòu)紋理信息,也能夠保證深度圖像中深且結(jié)構(gòu)光測距的計(jì)算量也小于其他幾種測距方法。常用的深度圖t 就是基于結(jié)構(gòu)光測量的原理。nect 設(shè)備ect 是微軟推出的一款平價(jià)優(yōu)質(zhì)的結(jié)合彩色圖像與深色圖像的體Kinect 是一種深度拍攝機(jī),可以通過空間識別、動(dòng)作追蹤等特點(diǎn)用自身手勢、動(dòng)作而不需要再使用手柄進(jìn)行游戲,而且由于其具交互、造價(jià)低廉、實(shí)用性較強(qiáng)等特色受到了更多用戶的高度關(guān)注、醫(yī)學(xué)、機(jī)器視覺等諸多領(lǐng)域被廣泛應(yīng)用。ect 設(shè)備主要有三個(gè)組件[24]:傳感器,用于獲得場景的深度信息;場景的彩色圖像;麥克風(fēng),此為多陣列麥克風(fēng)。其中,深度信息外發(fā)射器和紅外接收器組成,彩色攝像機(jī)則是一個(gè)采集 RGB 彩來獲取同一場景的彩色圖像。
【參考文獻(xiàn)】:
期刊論文
[1]基于快速行進(jìn)算法的深度圖像增強(qiáng)算法[J]. 孟恬,全紅艷. 計(jì)算機(jī)應(yīng)用與軟件. 2017(08)
[2]基于聯(lián)合雙邊濾波的深度圖像增強(qiáng)算法[J]. 劉金榮,李淳芃,歐陽建權(quán),劉京. 計(jì)算機(jī)工程. 2014(03)
[3]基于改進(jìn)雙邊濾波的Kinect深度圖像空洞修復(fù)算法研究[J]. 李應(yīng)彬,馮杰,張華熊,李晨勤. 工業(yè)控制計(jì)算機(jī). 2013(11)
[4]Kinect深度圖像修復(fù)算法[J]. 徐歡,鄭江濱. 微電子學(xué)與計(jì)算機(jī). 2013(11)
[5]Kinect深度圖像快速修復(fù)算法[J]. 王奎,安平,張兆楊,程浩,李賀建. 上海大學(xué)學(xué)報(bào)(自然科學(xué)版). 2012(05)
[6]基于快速行進(jìn)法的快速圖像修復(fù)算法[J]. 肖志云,張文霞,姜玉莉. 計(jì)算機(jī)應(yīng)用. 2007(S2)
碩士論文
[1]基于非局部聯(lián)合局部信息的深度圖像質(zhì)量提升[D]. 張陽.西安電子科技大學(xué) 2014
本文編號:2997557
【文章來源】:重慶大學(xué)重慶市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:61 頁
【學(xué)位級別】:碩士
【部分圖文】:
彩色圖像與對應(yīng)的深度圖像
到物體的距離,因此這種方法被稱為飛行時(shí)間測距,即 TOF =12 × + 360× , 為能量信號的波長, 為傳播過程中信號傳播的波形數(shù), 是位。雖然 TOF 測距方法的原理簡單,但得到較為準(zhǔn)確的測量結(jié)能量信號速度很快,如光波或是聲波信號,因此飛行時(shí)間的測量測距的嚴(yán)重誤差。所以在測量過程中,需要對飛行時(shí)間的測量時(shí)構(gòu)光測距。光測距是運(yùn)用三角測量原理來得到深度信息的。由于待測物體不平的情況,結(jié)構(gòu)光從光源投射到待測物體表面上,會(huì)在表面形深度相機(jī)采集到數(shù)字圖像,并求得特征點(diǎn)與攝像頭主點(diǎn)之間的目標(biāo)的深度圖像。而基于結(jié)構(gòu)光測距在深度圖像獲取方面的應(yīng)至場景,則傳感器采集到相應(yīng)的帶有結(jié)構(gòu)光的圖案。由于物體發(fā)光的模式圖案的形變,因此通過采集到的結(jié)構(gòu)光圖案中位置信過三角原理計(jì)算即可得到場景中各點(diǎn)的深度信息。
即使場景中沒有充足的結(jié)構(gòu)紋理信息,也能夠保證深度圖像中深且結(jié)構(gòu)光測距的計(jì)算量也小于其他幾種測距方法。常用的深度圖t 就是基于結(jié)構(gòu)光測量的原理。nect 設(shè)備ect 是微軟推出的一款平價(jià)優(yōu)質(zhì)的結(jié)合彩色圖像與深色圖像的體Kinect 是一種深度拍攝機(jī),可以通過空間識別、動(dòng)作追蹤等特點(diǎn)用自身手勢、動(dòng)作而不需要再使用手柄進(jìn)行游戲,而且由于其具交互、造價(jià)低廉、實(shí)用性較強(qiáng)等特色受到了更多用戶的高度關(guān)注、醫(yī)學(xué)、機(jī)器視覺等諸多領(lǐng)域被廣泛應(yīng)用。ect 設(shè)備主要有三個(gè)組件[24]:傳感器,用于獲得場景的深度信息;場景的彩色圖像;麥克風(fēng),此為多陣列麥克風(fēng)。其中,深度信息外發(fā)射器和紅外接收器組成,彩色攝像機(jī)則是一個(gè)采集 RGB 彩來獲取同一場景的彩色圖像。
【參考文獻(xiàn)】:
期刊論文
[1]基于快速行進(jìn)算法的深度圖像增強(qiáng)算法[J]. 孟恬,全紅艷. 計(jì)算機(jī)應(yīng)用與軟件. 2017(08)
[2]基于聯(lián)合雙邊濾波的深度圖像增強(qiáng)算法[J]. 劉金榮,李淳芃,歐陽建權(quán),劉京. 計(jì)算機(jī)工程. 2014(03)
[3]基于改進(jìn)雙邊濾波的Kinect深度圖像空洞修復(fù)算法研究[J]. 李應(yīng)彬,馮杰,張華熊,李晨勤. 工業(yè)控制計(jì)算機(jī). 2013(11)
[4]Kinect深度圖像修復(fù)算法[J]. 徐歡,鄭江濱. 微電子學(xué)與計(jì)算機(jī). 2013(11)
[5]Kinect深度圖像快速修復(fù)算法[J]. 王奎,安平,張兆楊,程浩,李賀建. 上海大學(xué)學(xué)報(bào)(自然科學(xué)版). 2012(05)
[6]基于快速行進(jìn)法的快速圖像修復(fù)算法[J]. 肖志云,張文霞,姜玉莉. 計(jì)算機(jī)應(yīng)用. 2007(S2)
碩士論文
[1]基于非局部聯(lián)合局部信息的深度圖像質(zhì)量提升[D]. 張陽.西安電子科技大學(xué) 2014
本文編號:2997557
本文鏈接:http://sikaile.net/kejilunwen/dianzigongchenglunwen/2997557.html
最近更新
教材專著