基于深度卷積神經(jīng)網(wǎng)絡(luò)的多聚焦圖像融合
發(fā)布時(shí)間:2020-12-13 08:57
由于成像設(shè)備景深的原因,在單焦距的情況下,很難獲取所有物體都聚焦的圖像。其最主要原因在于:物體只有處在成像設(shè)備特定距離范圍內(nèi)才能夠聚焦,而處在范圍之外的物體不聚焦。為了獲取所有物體都聚焦的圖像,一種常用的解決方法是多聚焦圖像融合技術(shù)。它旨在通過融合兩個(gè)或兩個(gè)以上采用不同焦距對(duì)同一場(chǎng)景拍攝的圖像,使融合后圖像中所有物體都聚焦。這種融合后圖像含有更多的細(xì)節(jié)信息,并且更適合人類視覺和計(jì)算機(jī)處理。因此,多聚焦圖像融合也可以被視為一種提高一組圖片信息質(zhì)量的過程。針對(duì)多聚焦圖像融合問題,本文主要從以下兩個(gè)方面展開研究,分別為基于深度卷積神經(jīng)網(wǎng)絡(luò)的多聚焦圖像融合方法和基于Hessian矩陣的多聚焦圖像融合方法,主要研究?jī)?nèi)容如下:1.提出了基于像素的深度卷積神經(jīng)網(wǎng)絡(luò)(pixel-Convolutional Neural Network,pCNN)的多聚焦融合算法。該算法由數(shù)據(jù)驅(qū)動(dòng),所以相較于傳統(tǒng)方法更具有魯棒性。為了降低時(shí)間復(fù)雜度,本文提出了一種能夠?qū)⑾袼丶?jí)卷積神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)變?yōu)閳D像級(jí)神經(jīng)網(wǎng)絡(luò)的算法,這種圖像級(jí)神經(jīng)網(wǎng)絡(luò)只需要原算法時(shí)間復(fù)雜度的25分之一。通過實(shí)驗(yàn)驗(yàn)證表明,本文提出的由數(shù)據(jù)驅(qū)動(dòng)的多聚焦圖像融...
【文章來源】:重慶郵電大學(xué)重慶市
【文章頁數(shù)】:68 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
2個(gè)32×32掩模用來生成同時(shí)存在聚焦和非聚焦區(qū)域的訓(xùn)練圖像
“鮮花”圖像在整個(gè)多聚焦圖像融合每一步的結(jié)果
慶郵電大學(xué)碩士學(xué)位論文 第 3 章 基于深度卷積神經(jīng)網(wǎng)絡(luò)的多聚焦圖像融合盆”的條紋處引入偽邊緣(如放大區(qū)域的黃色矩形)。除此之外,“時(shí)鐘”的邊界也容易因?yàn)榫劢乖u(píng)價(jià)的失敗而引入偽邊緣。從融合結(jié)果與放大區(qū)域的結(jié)果可以看出本章提出的方法取得了最好的融合效果。(a) 源圖像 A (b) 源圖像 B (c) GF (d) IM
本文編號(hào):2914283
【文章來源】:重慶郵電大學(xué)重慶市
【文章頁數(shù)】:68 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
2個(gè)32×32掩模用來生成同時(shí)存在聚焦和非聚焦區(qū)域的訓(xùn)練圖像
“鮮花”圖像在整個(gè)多聚焦圖像融合每一步的結(jié)果
慶郵電大學(xué)碩士學(xué)位論文 第 3 章 基于深度卷積神經(jīng)網(wǎng)絡(luò)的多聚焦圖像融合盆”的條紋處引入偽邊緣(如放大區(qū)域的黃色矩形)。除此之外,“時(shí)鐘”的邊界也容易因?yàn)榫劢乖u(píng)價(jià)的失敗而引入偽邊緣。從融合結(jié)果與放大區(qū)域的結(jié)果可以看出本章提出的方法取得了最好的融合效果。(a) 源圖像 A (b) 源圖像 B (c) GF (d) IM
本文編號(hào):2914283
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2914283.html
最近更新
教材專著