圖像融合的若干關(guān)鍵技術(shù)研究
本文關(guān)鍵詞:圖像融合的若干關(guān)鍵技術(shù)研究,由筆耕文化傳播整理發(fā)布。
【摘要】:圖像融合是模式識(shí)別與圖像處理中一個(gè)重要的研究領(lǐng)域,由于具體任務(wù)的多樣性,沒有一種融合方法能夠適合于各種圖像,這也給圖像融合領(lǐng)域的研究帶來了諸多挑戰(zhàn)。本文從脈沖耦合、稀疏表示、模糊系統(tǒng)、隱馬爾科夫模型幾方面對(duì)圖像融合相關(guān)算法及其改進(jìn)方法進(jìn)行了相關(guān)研究,并從視覺效果和客觀評(píng)價(jià)指標(biāo)上進(jìn)行了深入比較和分析。本文的主要工作包含如下幾個(gè)方面。(1)針對(duì)雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法中參數(shù)選取不易確定之挑戰(zhàn),提出了一種基于進(jìn)化學(xué)習(xí)的自適應(yīng)雙通道脈沖耦合圖像融合方法。通過引入自適應(yīng)學(xué)習(xí)能力的進(jìn)化學(xué)習(xí)算法和構(gòu)建新的優(yōu)化目標(biāo)對(duì)雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)模型參數(shù)來進(jìn)行優(yōu)化,提出的新算法能夠有效地找到雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)模型的近似最優(yōu)參數(shù),克服了經(jīng)典雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法需要人工交互窮舉嘗試不同參數(shù)來獲取較優(yōu)參數(shù)之缺點(diǎn)。(2)針對(duì)脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合模型對(duì)含噪聲圖像敏感和融合時(shí)間效率不高之問題,通過引入目前在模式識(shí)別和圖像處理領(lǐng)域研究的壓縮感知技術(shù)對(duì)傳統(tǒng)模型進(jìn)行改造,提出了一種融入壓縮感知技術(shù)的新型快速脈沖耦合圖像融合方法。該方法不僅能夠彌補(bǔ)傳統(tǒng)脈沖耦合模型抗噪聲能力不強(qiáng)之缺陷,還可以實(shí)現(xiàn)含噪聲圖像去噪和圖像融合同步完成,有效地克服了傳統(tǒng)去噪融合方法中人為將去噪過程和融合過程分開而造成的信息不一致等問題,在一定程度上大大提高了新方法的融合效果和時(shí)間效率。(3)圖像融合中所處理的圖像往往并不局限于兩幅,而對(duì)應(yīng)的多通道模型目前卻存在鮮有涉及之困境。采用目前被廣泛應(yīng)用的雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合模型處理三張及以上圖像的融合,需解決圖像融合的先后順序之問題。研究表明不同的融合順序?qū)θ诤辖Y(jié)果的影響較大。據(jù)此,提出了一種新的多通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法。同時(shí),針對(duì)無現(xiàn)成多通道脈沖耦合鏈路權(quán)重計(jì)算方法可以使用之難題,提出了一種新的基于灰度能量矩陣的多通道模型鏈路權(quán)重計(jì)算方法。該鏈路計(jì)算方法不僅可以實(shí)現(xiàn)各通道間的融合協(xié)作,盡量減少信息損失,而且還能有效地避免拉普拉斯算子和重復(fù)計(jì)算之問題,從而大大提高了算法時(shí)間效率。(4)針對(duì)傳統(tǒng)稀疏表示圖像融合超分模型中對(duì)于LL(Low-low Frequency)、LH(Low-high Frequency)、H(High Frequency)三部分等比例加權(quán),不能突出重點(diǎn)信息之不足,本文提出一種香農(nóng)熵多視角加權(quán)稀疏表示同步超分圖像融合方法。該方法引入香農(nóng)熵加權(quán)技術(shù),針對(duì)LL、LH、H三部分根據(jù)圖像特征進(jìn)行加權(quán),突出重點(diǎn)頻率段的影響,從而提高了圖像融合的效果。(5)針對(duì)圖像融合領(lǐng)域內(nèi)監(jiān)督學(xué)習(xí)少有涉及、先驗(yàn)知識(shí)不能加以利用之不足,提出了一種新的有監(jiān)督學(xué)習(xí)圖像融合框架。該方法能夠有效利用以往圖像融合過程中得到的經(jīng)驗(yàn)知識(shí)(如質(zhì)量較高的融合圖像)構(gòu)造有用的標(biāo)準(zhǔn)圖像融合學(xué)習(xí)圖像庫,進(jìn)而通過選用相關(guān)經(jīng)典有監(jiān)督學(xué)習(xí)模型對(duì)上述標(biāo)準(zhǔn)庫樣本進(jìn)行訓(xùn)練形成學(xué)習(xí)模型,最終利用該學(xué)習(xí)所得模型指導(dǎo)新的圖像融合過程。(6)專門針對(duì)圖像融合領(lǐng)域內(nèi)難于對(duì)先驗(yàn)知識(shí)加以利用的問題在模糊系統(tǒng)研究領(lǐng)域提出一種全新的有監(jiān)督TSK(Takagi Sugeno Kang)模糊系統(tǒng)圖像融合方法。該方法通過引入TSK模糊系統(tǒng)構(gòu)建標(biāo)準(zhǔn)圖像融合圖像庫進(jìn)行學(xué)習(xí),將學(xué)習(xí)準(zhǔn)則記錄下來形成融合模型,并指導(dǎo)新的圖像融合過程。在融合圖像質(zhì)量和適用范圍方面表現(xiàn)出一定的優(yōu)勢(shì)。(7)傳統(tǒng)圖像融合領(lǐng)域中各點(diǎn)融合孤立進(jìn)行,以至造成的負(fù)面影響使得較難能夠達(dá)到最佳融合效果之問題,提出了一種新的HMM(Hidden Markov Model)醫(yī)學(xué)和多聚焦圖像融合方法。該方法能夠有效利用均值和平均梯度信息構(gòu)造發(fā)生概率,再通過BP(Back Propagation)算法進(jìn)行優(yōu)化,最終得到融合圖像。該方法較之傳統(tǒng)方法,具備能夠盡量照顧到每個(gè)像素點(diǎn)周邊鄰域的信息的特點(diǎn),具體可表現(xiàn)為融合效果的改善。相關(guān)實(shí)驗(yàn)結(jié)果亦表明了本文方法的上述特點(diǎn)。
【關(guān)鍵詞】:圖像融合 脈沖耦合神經(jīng)網(wǎng)絡(luò) 進(jìn)化學(xué)習(xí) 香農(nóng)熵 多視角加權(quán) 稀疏表示 模糊系統(tǒng) 隱馬爾可夫
【學(xué)位授予單位】:江南大學(xué)
【學(xué)位級(jí)別】:博士
【學(xué)位授予年份】:2015
【分類號(hào)】:TP391.41
【目錄】:
- 摘要3-5
- Abstract5-10
- 第一章 緒論10-26
- 1.1 研究背景及意義10
- 1.2 研究現(xiàn)狀10-23
- 1.3 研究內(nèi)容及方案23-26
- 1.3.1 研究目標(biāo)23
- 1.3.2 研究內(nèi)容及創(chuàng)新23-24
- 1.3.3 論文的組織結(jié)構(gòu)24-26
- 第二章 粒子群進(jìn)化學(xué)習(xí)的自適應(yīng)雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法研究26-50
- 2.1 問題提出26
- 2.2 雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合及存在的問題26-32
- 2.2.1 雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)(DC-PCNN)圖像融合模型26-28
- 2.2.2 雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法存在的問題28-32
- 2.3 粒子群進(jìn)化學(xué)習(xí)雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法32-38
- 2.3.1 粒子群尋優(yōu)(PSO)33-34
- 2.3.2 雙通道脈沖耦合圖像融合進(jìn)化學(xué)習(xí)多準(zhǔn)則優(yōu)化目標(biāo)構(gòu)造34-36
- 2.3.3 粒子群進(jìn)化學(xué)習(xí)自適應(yīng)雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法36-38
- 2.4 仿真實(shí)驗(yàn)及分析38-47
- 2.4.1 評(píng)價(jià)指標(biāo)和實(shí)驗(yàn)設(shè)置38-39
- 2.4.2 多聚焦圖像仿真實(shí)驗(yàn)及分析39-43
- 2.4.3 醫(yī)學(xué)圖像仿真實(shí)驗(yàn)及分析43-45
- 2.4.4 參數(shù)敏感性分析45-46
- 2.4.5 復(fù)雜真實(shí)圖像融合仿真實(shí)驗(yàn)46-47
- 2.5 本章小結(jié)47-50
- 第三章 融入壓縮感知的新型快速脈沖耦合圖像融合方法研究50-64
- 3.1 問題提出50-51
- 3.2 相關(guān)工作51-53
- 3.2.1 壓縮感知51-52
- 3.2.2 脈沖耦合神經(jīng)網(wǎng)絡(luò)52-53
- 3.2.3 脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合模型存在的問題53
- 3.3 融入壓縮感知的脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法53-56
- 3.3.1 理論分析53-54
- 3.3.2 模型框架54
- 3.3.3 方法實(shí)現(xiàn)54-56
- 3.4 仿真實(shí)驗(yàn)56-62
- 3.4.1 融合質(zhì)量評(píng)價(jià)指標(biāo)與方法簡稱56
- 3.4.2 與其他去噪脈沖耦合圖像融合方法比較實(shí)驗(yàn)56-62
- 3.4.3 實(shí)驗(yàn)分析小結(jié)62
- 3.5 本章小結(jié)62-64
- 第四章 多通道脈沖耦合圖像融合方法研究64-76
- 4.1 問題提出64-65
- 4.2 多通道脈沖耦合神經(jīng)網(wǎng)絡(luò)模型65-66
- 4.3 鏈接權(quán)重計(jì)算方法66-67
- 4.4 多通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法67-69
- 4.4.1 方法框架67-68
- 4.4.2 方法實(shí)現(xiàn)(M-PCNN)68
- 4.4.3 討論68-69
- 4.5 仿真實(shí)驗(yàn)及分析69-75
- 4.5.1 圖像融合評(píng)價(jià)指標(biāo)和比較方法70
- 4.5.2 與雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法比較實(shí)驗(yàn)70-73
- 4.5.3 和其他脈沖耦合和非脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法比較實(shí)驗(yàn)73-75
- 4.6 本章小結(jié)75-76
- 第五章 香農(nóng)熵加權(quán)稀疏表示圖像融合方法研究76-98
- 5.1 問題引出76
- 5.2 稀疏表示76-77
- 5.3 香農(nóng)熵多視角加權(quán)稀疏表示同步超分圖像融合方法77-85
- 5.3.1 問題提出77-78
- 5.3.2 香農(nóng)熵多視角加權(quán)78-81
- 5.3.3 方法框架81
- 5.3.4 字典學(xué)習(xí)81-83
- 5.3.5 方法實(shí)現(xiàn)83-85
- 5.4 仿真實(shí)驗(yàn)及分析85-96
- 5.4.1 評(píng)價(jià)指標(biāo)和比較方法簡稱85-86
- 5.4.2 不同類型圖像仿真實(shí)驗(yàn)86-93
- 5.4.3 與LL、LH、H等比例加權(quán)融合效果對(duì)比分析93-95
- 5.4.4 LH、H字典分離學(xué)習(xí)、合并學(xué)習(xí)對(duì)比分析95-96
- 5.5 本章小結(jié)96-98
- 第六章 有監(jiān)督學(xué)習(xí)醫(yī)學(xué)圖像融合方法研究98-112
- 6.1 問題提出98-99
- 6.2 有監(jiān)督學(xué)習(xí)模型99-102
- 6.2.1 TSK模糊系統(tǒng)99-100
- 6.2.2 RBF神經(jīng)網(wǎng)絡(luò)100-101
- 6.2.3 SVR回歸模型101-102
- 6.3 有監(jiān)督學(xué)習(xí)圖像融合方法102-104
- 6.3.1 融合框架102-103
- 6.3.2 方法描述103-104
- 6.4 仿真實(shí)驗(yàn)及分析104-111
- 6.4.1 評(píng)價(jià)指標(biāo)105
- 6.4.2 實(shí)驗(yàn)105-107
- 6.4.3 分析107-111
- 6.5 本章小結(jié)111-112
- 第七章 基于監(jiān)督學(xué)習(xí)的Takagi Sugeno Kang模糊系統(tǒng)圖像融合方法研究112-120
- 7.1 問題提出112
- 7.2 TSK模糊系統(tǒng)圖像融合方法112-115
- 7.2.1 方法框架112-113
- 7.2.2 實(shí)現(xiàn)過程113-115
- 7.2.3 方法實(shí)現(xiàn)及分析115
- 7.3 仿真實(shí)驗(yàn)及分析115-118
- 7.3.1 特定類型學(xué)習(xí)圖像融合實(shí)驗(yàn)115-116
- 7.3.2 無限定圖像類型學(xué)習(xí)融合實(shí)驗(yàn)116-117
- 7.3.3 分析117-118
- 7.4 本章小結(jié)118-120
- 第八章 基于Hidden Markov Model的醫(yī)學(xué)和多聚焦圖像融合方法研究120-130
- 8.1 問題提出120
- 8.2 隨機(jī)場(chǎng)120-124
- 8.2.1 隨機(jī)場(chǎng)的原理121-123
- 8.2.2 優(yōu)化方法123-124
- 8.2.3 隨機(jī)場(chǎng)圖像融合的計(jì)算124
- 8.3 算法構(gòu)造124-126
- 8.4 仿真實(shí)驗(yàn)126-130
- 第九章 總結(jié)與展望130-134
- 9.1 總結(jié)130-131
- 9.2 展望131-134
- 致謝134-136
- 參考文獻(xiàn)136-150
- 附錄150
【參考文獻(xiàn)】
中國期刊全文數(shù)據(jù)庫 前10條
1 文成林;郭超;高敬禮;;多傳感器多尺度圖像信息融合算法[J];電子學(xué)報(bào);2008年05期
2 吳曉軍;李峰;馬悅;辛云宏;;均勻搜索粒子群算法的收斂性分析[J];電子學(xué)報(bào);2012年06期
3 馮鑫;王曉明;黨建武;沈瑜;;基于Shearlet變換的紅外與可見光圖像融合[J];光電子.激光;2013年02期
4 張波;薛正輝;任武;李偉明;盛新慶;;采用粒子群算法的頻率選擇表面優(yōu)化設(shè)計(jì)[J];電子學(xué)報(bào);2013年03期
5 張成;楊海蓉;程鴻;韋穗;;基于壓縮感知的超分辨率圖像重建[J];光電子.激光;2013年04期
6 尹雯;李元祥;周則明;劉世前;;基于稀疏表示的遙感圖像融合方法[J];光學(xué)學(xué)報(bào);2013年04期
7 蔣亦樟;鄧趙紅;王士同;;0階L2型TSK遷移學(xué)習(xí)模糊系統(tǒng)[J];電子學(xué)報(bào);2013年05期
8 鄧苗;張基宏;柳偉;梁永生;;基于全變分的權(quán)值優(yōu)化的多尺度變換圖像融合[J];電子與信息學(xué)報(bào);2013年07期
9 延翔;秦翰林;劉上乾;楊廷梧;楊智杰;薛靈芝;;基于Tetrolet變換的圖像融合[J];光電子.激光;2013年08期
10 沈瑜;黨建武;王陽萍;馮鑫;羅維薇;;一種新的基于多尺度幾何分析的圖像融合方法[J];光電子.激光;2013年12期
中國博士學(xué)位論文全文數(shù)據(jù)庫 前2條
1 羅曉清;多傳感器圖像融合理論及其應(yīng)用研究[D];江南大學(xué);2010年
2 常興治;數(shù)學(xué)形態(tài)學(xué)方法與隨機(jī)場(chǎng)圖像分割研究[D];東北大學(xué);2007年
本文關(guān)鍵詞:圖像融合的若干關(guān)鍵技術(shù)研究,,由筆耕文化傳播整理發(fā)布。
本文編號(hào):406536
本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/406536.html