基于遮擋場(chǎng)景的光場(chǎng)圖像深度估計(jì)方法
發(fā)布時(shí)間:2021-06-15 10:00
針對(duì)在深度估計(jì)過(guò)程中的遮擋問(wèn)題,提出一種新的基于多線索融合的光場(chǎng)圖像深度估計(jì)方法。利用約束性自適應(yīng)散焦算法和約束性角熵度量算法獲取場(chǎng)景的散焦線索、一致性線索,并計(jì)算出場(chǎng)景的初始深度、置信度。為增強(qiáng)圖像的邊緣輪廓信息,通過(guò)Canny算子提取中心視角圖像的邊緣信息,然后利用馬爾可夫隨機(jī)場(chǎng)融合場(chǎng)景的初始深度、置信度及邊緣信息,實(shí)現(xiàn)圖像的高精度深度估計(jì)。與其他先進(jìn)方法相比,所提方法能夠較好地解決場(chǎng)景中存在的遮擋問(wèn)題,獲取的深度圖精度較高、平滑效果較好,圖像邊緣保持效果較好。
【文章來(lái)源】:光學(xué)學(xué)報(bào). 2020,40(05)北大核心EICSCD
【文章頁(yè)數(shù)】:7 頁(yè)
【部分圖文】:
Lytro相機(jī)成像模型
圖2為包含物點(diǎn)空間信息與角度信息的四維(4D)光場(chǎng)圖像。當(dāng)確定角度坐標(biāo)u和在整個(gè)xy坐標(biāo)空間變化的角度坐標(biāo)v,就可得到多視角圖像,如圖3所示。圖3 多視角圖像
圖2 4D光場(chǎng)示意圖利用光場(chǎng)圖像的多視角特性可進(jìn)行數(shù)字重聚焦[11],從而獲得重聚焦圖像,其原理如圖4所示,其中Π表示微透鏡陣列平面,Ψ表示圖像傳感器平面,Φ表示重聚焦平面,F表示透鏡焦距,α表示聚焦系數(shù)(聚焦深度),αF表示移動(dòng)像面與微透鏡陣列平面的距離。
【參考文獻(xiàn)】:
期刊論文
[1]基于微透鏡陣列型光場(chǎng)相機(jī)的多目標(biāo)快速測(cè)距方法[J]. 孫福盛,韓燮. 光學(xué)學(xué)報(bào). 2019(08)
[2]一種聚焦式光場(chǎng)成像去混疊方法[J]. 劉潤(rùn)興,任明俊,肖高博. 光學(xué)學(xué)報(bào). 2018(06)
[3]自適應(yīng)成本量的抗遮擋光場(chǎng)深度估計(jì)算法[J]. 熊偉,張駿,高欣健,張旭東,高雋. 中國(guó)圖象圖形學(xué)報(bào). 2017(12)
本文編號(hào):3230847
【文章來(lái)源】:光學(xué)學(xué)報(bào). 2020,40(05)北大核心EICSCD
【文章頁(yè)數(shù)】:7 頁(yè)
【部分圖文】:
Lytro相機(jī)成像模型
圖2為包含物點(diǎn)空間信息與角度信息的四維(4D)光場(chǎng)圖像。當(dāng)確定角度坐標(biāo)u和在整個(gè)xy坐標(biāo)空間變化的角度坐標(biāo)v,就可得到多視角圖像,如圖3所示。圖3 多視角圖像
圖2 4D光場(chǎng)示意圖利用光場(chǎng)圖像的多視角特性可進(jìn)行數(shù)字重聚焦[11],從而獲得重聚焦圖像,其原理如圖4所示,其中Π表示微透鏡陣列平面,Ψ表示圖像傳感器平面,Φ表示重聚焦平面,F表示透鏡焦距,α表示聚焦系數(shù)(聚焦深度),αF表示移動(dòng)像面與微透鏡陣列平面的距離。
【參考文獻(xiàn)】:
期刊論文
[1]基于微透鏡陣列型光場(chǎng)相機(jī)的多目標(biāo)快速測(cè)距方法[J]. 孫福盛,韓燮. 光學(xué)學(xué)報(bào). 2019(08)
[2]一種聚焦式光場(chǎng)成像去混疊方法[J]. 劉潤(rùn)興,任明俊,肖高博. 光學(xué)學(xué)報(bào). 2018(06)
[3]自適應(yīng)成本量的抗遮擋光場(chǎng)深度估計(jì)算法[J]. 熊偉,張駿,高欣健,張旭東,高雋. 中國(guó)圖象圖形學(xué)報(bào). 2017(12)
本文編號(hào):3230847
本文鏈接:http://sikaile.net/kejilunwen/wulilw/3230847.html
最近更新
教材專著