基于人眼視覺(jué)特性與自適應(yīng)PCNN的醫(yī)學(xué)圖像融合算法
本文選題:醫(yī)學(xué)圖像融合 切入點(diǎn):非下采樣Contourlet變換(NSCT) 出處:《光電子·激光》2017年07期 論文類(lèi)型:期刊論文
【摘要】:針對(duì)多尺度變換的圖像特征,提出了一種基于人眼視覺(jué)特性與自適應(yīng)脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)的醫(yī)學(xué)圖像融合新方法。首先,對(duì)經(jīng)配準(zhǔn)的源圖像進(jìn)行非下采樣Contourlet變換(NSCT),得到低頻、高頻子帶系數(shù);然后,考慮到低頻子帶系數(shù)中保留了絕大部分源圖像能量和圖像輪廓特征,提出區(qū)域能量(RE)和梯度奇異值度量(GSVM)相結(jié)合的方法;考慮到圖像全局特征,將PCNN用于高頻子帶系數(shù)中,提出區(qū)域視覺(jué)對(duì)比度(SLVC)模擬人眼視覺(jué)特性作為PCNN的外部刺激輸入,設(shè)定PCNN的鏈接強(qiáng)度隨視覺(jué)對(duì)比敏感度(VCS)自適應(yīng)變化,同時(shí)考慮到PCNN的迭代次數(shù),利用Sigmoid函數(shù)計(jì)算其點(diǎn)火輸出幅值的顯著性度量;最后,對(duì)獲得的融合系數(shù)進(jìn)行逆NSCT得到融合圖像。通過(guò)實(shí)驗(yàn)對(duì)比分析表明,本文算法不僅可以保留源圖像信息的同時(shí),還得到較好的客觀(guān)評(píng)價(jià)指標(biāo)和視覺(jué)效果。
[Abstract]:A new method of medical image fusion based on human visual characteristics and adaptive impulse coupled neural network (PCNN) is proposed for image features of multi-scale transform. Firstly, a non-downsampling Contourlet transform is applied to the registered source image to obtain low frequency. Then, considering that most of the source image energy and image contour features are retained in the low frequency subband coefficients, a method combining regional energy with gradient singular value measurement (GSVM) is proposed, and considering the global features of the image, Using PCNN in high-frequency subband coefficients, a regional visual contrast scale (RVVC) is proposed to simulate human visual characteristics as the external stimulus input of PCNN. The link strength of PCNN is set to change adaptively with visual contrast sensitivity (VCSs), and the number of iterations of PCNN is taken into account. The Sigmoid function is used to calculate the significance measure of the ignition output amplitude. Finally, the fusion image is obtained by inverse NSCT of the obtained fusion coefficient. The experimental results show that the proposed algorithm can not only preserve the source image information, but also preserve the source image information at the same time. Also get better objective evaluation index and visual effect.
【作者單位】: 浙江工商大學(xué)信息與電子工程學(xué)院;浙江理工大學(xué)自動(dòng)化研究所;
【基金】:國(guó)家自然科學(xué)基金(61374022)資助項(xiàng)目
【分類(lèi)號(hào)】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 鄒文潔;;基于PCNN神經(jīng)網(wǎng)絡(luò)的圖像去噪算法研究[J];計(jì)算機(jī)仿真;2008年08期
2 齊永鋒;火元蓮;張家樹(shù);;基于簡(jiǎn)化的PCNN與類(lèi)內(nèi)最小離散度的圖像自動(dòng)分割方法[J];光電子.激光;2008年09期
3 王念一;馬義德;綻琨;;PCNN理論研究進(jìn)展及其語(yǔ)音識(shí)別中的應(yīng)用[J];自動(dòng)化與儀器儀表;2013年01期
4 鐘亞平;;基于PCNN的手腕骨圖像自動(dòng)分割方法研究[J];軟件導(dǎo)刊;2013年07期
5 顧曉東,郭仕德,余道衡;一種基于PCNN的圖像去噪新方法[J];電子與信息學(xué)報(bào);2002年10期
6 趙峙江;趙春暉;張志宏;;一種新的PCNN模型參數(shù)估算方法[J];電子學(xué)報(bào);2007年05期
7 火元蓮;;一種基于PCNN的圖像自動(dòng)分割方法[J];自動(dòng)化與儀器儀表;2008年06期
8 李敏;蔡騁;談?wù)?;基于修正PCNN的多傳感器圖像融合方法[J];中國(guó)圖象圖形學(xué)報(bào);2008年02期
9 劉R,
本文編號(hào):1623485
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1623485.html