基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法
2022-07-26叶坤涛舒蕾蕾
李 文,叶坤涛,舒蕾蕾,李 晟
基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法
李 文,叶坤涛,舒蕾蕾,李 晟
(江西理工大学 理学院,江西 赣州 341000)
为了克服当前的红外与可见光图像融合算法存在着目标不够突出、纹理细节丢失等现象,本文提出了一种基于高斯模糊逻辑和自适应双通道脉冲发放皮层模型(Adaptive Dual-Channel Spiking Cortical Model, ADCSCM)的红外与可见光图像融合算法。首先,使用非下采样剪切波变换(Non-Subsampled Sheartlet Transform, NSST)将源图像分解为低频和高频部分。其次,结合新拉普拉斯能量和(New Sum of Laplacian, NSL)与高斯模糊逻辑,设定双阈值来指导低频部分进行融合;同时,采用基于ADCSCM的融合规则来指导高频部分进行融合。最后,使用NSST逆变换进行重构来获取融合图像。实验结果表明,本文算法主观视觉效果最佳,并在互信息、信息熵和标准差3项指标上高于其他7种融合算法,能够有效突出红外目标、保留较多纹理细节,提高融合图像的质量。
图像融合;非下采样剪切波变换;高斯模糊逻辑;自适应双通道脉冲发放皮层模型
0 引言
红外图像的目标信息突出,但通常其对比度和空间分辨率低,且严重缺失细节;可见光图像通常对比度和空间分辨率较高,细节信息丰富,但易受外界环境的干扰[1]。通过红外与可见光图像融合技术,可以有效地综合红外与可见光图像各自的优势信息,形成一幅目标更突出、细节信息更丰富的融合图像[2]。当前,红外与可见光图像融合技术已被广泛应用在目标跟踪、红外探测、军事以及民用等领域[3]。
当前,基于多尺度变换的图像融合算法是图像融合算法中研究最为广泛的一类,即使用某种多尺度变换工具将源图像分解为低频和高频部分,然后分别对低频和高频部分进行融合[2]。相应地,多种多尺度变换工具已相继被研究学者们提出,如小波变换、曲波变换(Curvelet Transform, CVT)、非下采样轮廓波变换(Non-Subsampled Contourlet Transform, NSCT)以及剪切波变换(Sheartlet Transform, ST)等[4]。NSST是被学者们近期提出的一种多尺度变换工具,它避免了ST的下采样操作,从而具备平移不变性,还消除了NSCT的较高计算复杂度,同时NSST具备较优的多分辨率性及各向异性等特点,可以较优地应用于红外与可见光图像融合领域当中[5-6]。
近些年来,多种基于多尺度变换的红外与可见光图像融合算法仍存在着目标不够突出、纹理细节丢失等现象。如王聪等[7]提出的一种基于脉冲发放皮层模型(Spiking Cortical Model, SCM)和复剪切波变换的融合算法,其融合图像纹理细节较丰富,但红外目标不够突出,同时红外目标周围还存在着伪影现象。邓立暖等[6]提出的一种基于NSST的融合算法,通过NSST分解源图像,然后利用显著图和改进的区域对比度分别来指导低频和高频部分进行融合,其融合图像红外目标较为突出,但存在着不属于源图像的结构信息,且有部分区域污染。Tan等[8]提出的一种基于多级高斯曲率滤波(Multi-Level Gaussian Curvature Filtering, MLGCF)图像分解的融合算法,其融合图像对比度适中,纹理细节较丰富,但存在着红外目标不够突出且偏暗的现象。冯贺等[9]提出的一种结合拉普拉斯分解和与亮度调节的融合算法,其融合图像整体偏暗、虽然红外目标较突出,但丢失了部分纹理细节。
为了较好地克服上述图像融合算法存在的缺陷,本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。首先,通过NSST将红外与可见光图像分解为低频和高频部分;其次,本文结合NSL(New Sum of Laplacian)和高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合;同时,本文对SCM进行改进,由单通道改为双通道,外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整,形成ADCSCM来指导高频部分进行融合;最后,利用NSST逆变换对融合后的低频和高频部分进行重构,获取融合图像。
1 基础理论
1.1 非下采样剪切波变换
由Guo等[10]提出的ST具备良好的局部性、方向敏感性等特点,NSST是ST的改进版本,在继承ST的优点外,还避免了ST的下采样操作,具备了ST没有的平移不变性,因此NSST能够克服图像边缘处的伪吉布斯现象。
NSST的分解过程主要为多尺度分解与方向局部化两部分[11]。使用非下采样金字塔滤波器组(Non-Subsampled Pyramid, NSP)对源图像进行多级分解,进而实现多尺度分解。级分解后将产生1个低频子带和个高频子带,它们与源图像的尺寸一致;使用剪切滤波器(Shearlet Filter, SF)对某一尺度下的高频子带进行多级分解,形成多个不同方向上的高频子带,实现方向局部化。级分解后将产生2个高频方向子带,它们与源图像尺寸一致。通过上述的NSP和SF分解,能够保证NSST的各向异性和平移不变性。此外,NSST还具有良好的稀疏表示性能与低计算成本等特点,属于一种有效的多尺度变换工具。
1.2 自适应双通道脉冲发放皮层模型
SCM由Zhan等[12]在2009年首次提出,它源于Eckhorn神经网络模型,属于一种改进的脉冲耦合神经网络(Pulse Coupled Neural Network, PCNN)模型。SCM除了具备PCNN的全局耦合性、同步脉冲性等特点外,还有参数少、计算效率高、结构简单的特点。当前,SCM在图像分割及图像融合等领域均具有明显的优势[13]。
由于SCM存在着对图像中暗部区域细节提取能力较弱的缺陷,本文在传统SCM基础上,提出了一种自适应双通道脉冲发放皮层模型,该模型能够有效地提高对图像中暗部区域细节的提取能力。此外,ADCSCM中同时输入两幅图像的外部输入激励,进而加快图像融合的速度。本文提出的ADCSCM中神经元结构如图1所示。
图1 ADCSCM结构
ADCSCM相对应的数学表达式如下:
式(1)~(6)中:(,)为神经元位置;为迭代次数;上标1、2分别表示通道1、通道2;S为神经元的外部输入激励;U为神经元的内部活动项;E为动态阈值;为神经元间的链接权重矩阵;为神经元的链接强度;(,)为神经元的周围连接;为阈值衰减系数;为阈值放大系数;X为神经元的幅度输出,采用sigmoid函数形式输出表示,能够突出幅度差异;Y为神经元的脉冲输出,当Y为1时,表示神经元成功点火;反之,当Y为0时,表示神经元未成功点火。
2 本文图像融合算法
2.1 融合流程
本文结合多尺度变换工具NSST、高斯模糊逻辑以及ADCSCM特性等,提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法,融合流程图由图2所示,对应的融合具体步骤分为以下4步:
步骤1:使用NSST将已配准的红外图像A与可见光图像B分解为低频部分{LA(,),HA(,)}和高频部分{LB(,),HB(,)};
步骤2:结合NSL与高斯模糊逻辑,并设定双阈值来指导低频部分LA(,)、LB(,)进行融合,获取融合后的低频部分LF(,);
步骤3:同时采用基于ADCSCM的融合规则来指导高频部分HA(,)、HB(,)进行融合,获取融合后的高频部分HF(,);
步骤4:最后,通过NSST逆变换对LF(,)、HF(,)进行重构,获取融合图像F。
图2 本文算法融合流程图
2.2 低频部分融合规则
低频部分主要是源图像的基本信息,反映着图像的主要轮廓。传统的低频部分融合规则如取平均法、简单加权法等容易丢失源图像的细节,导致融合的效果一般。为了克服传统低频部分融合规则的缺陷,本文提出结合NSL与高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合。
拉普拉斯能量和在表明图像的能量信息时,还能反映出图像的边缘特性[14]。但传统拉普拉斯能量和仅计算了像素点的垂直和水平方向的拉普拉斯算子,未考虑对角方向的拉普拉斯算子,从而丢失了部分图像细节。在此基础上,本文增加了主对角和副对角的拉普拉斯算子值,形成NSL[14]。NSL定义为:
式(7)~(8)中:L(,)上标可取A、B,表示红外图像或可见光图像低频部分;NLL(,)为新拉普拉斯算子;和为区域窗口测度,表示区域窗口大小为(2+1)×(2+1),本文取3×3,即==1。
则基于NSL的权重因子定义如下:
式中:0为权重调节参数,本文参考文献[15],相应取0=3。1为红外权重因子,2为可见光权重因子。
同时,红外图像的直方图呈现高斯分布,与高斯模糊逻辑的特性相似。侧面表明高斯模糊逻辑的隶属度可以较优地描述红外图像的目标和背景信息[16]。则红外低频部分的背景隶属度B和目标隶属度T由高斯函数确定,分别定义如下:
式中:为红外低频部分的均值;为红外低频部分的标准差;0为自适应调节参数,取值范围一般为1~3,本文取0=2。
将红外低频部分的背景隶属度、目标隶属度与1、2相结合,形成修正的红外权重因子1和可见光权重因子2用于融合低频部分,1、2分别定义如下:
其次,区域能量反映着图像中像素点的局部变化强度,可以较好地表现出红外与可见光图像各自的信息特征。图像低频部分区域能量RE定义为:
基于上述的区域能量,设定双阈值1、2与其结合,进而判断融合图像低频部分中的某像素点属于明显的红外图像或可见光图像特征信息。具体表述为:
因此,低频部分融合系数LF(,)可以表示为:
2.3 高频部分融合规则
高频部分主要是源图像的细节,反映着图像的突变特性。常见的融合规则如区域能量取大、绝对值取大规则等虽然简单高效,但忽略了图像像素间的相关性,容易导致融合图像纹理细节或边缘信息的丢失,造成图像扭曲[17]。SCM是PCNN模型的简化版本,具有全局耦合性、同步脉冲性和计算量小等优势,能够较好地突出图像的细节部分。为了保留源图像的细节,本文提出基于ADCSCM的融合规则来指导高频部分进行融合,其外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整。ADCSCM在继承SCM的优点外,还能够弥补SCM对图像暗部区域细节提取能力较弱的缺陷,反映出图像的突变特性、加快图像融合的速度。
在ADCSCM中,记外部输入激励为S,链接强度为,其中上标=1,2,表示为通道1、通道2,其中通道1与红外图像A高频部分相对应,通道2与可见光图像B高频部分相对应。
由ADCSCM的工作原理可知,外部输入激励S的选取十分重要,直接影响着高频部分的融合结果。当前,常见外部输入激励选取方法是通过单个区域特征,如区域能量、改进空间频率等确定,但由此容易导致融合的图像缺乏细节和边缘等信息。因此,本文提出外部输入激励S由区域能量和边缘测度指标共同选取,可以使融合图像保持着更多的细节和边缘信息。图像高频部分区域能量RE和边缘测度指标EM分别定义为:
式中:H(,)上标可取A、B,表示红外图像或可见光图像高频部分。
通过上述边缘测度指标EM,能够在一定程度上反映出高频部分在垂直、水平和对角线方向的边缘信息[18]。联合边缘测度指标和区域能量作为ADCSCM的外部输入激励,能够反映出红外与可见光图像高频部分系数不同的特性。表示为:
图像中像素点与ADCSCM中神经元互相对应,图像的区域平均梯度可以敏锐地感知细节差异,反映着图像的纹理信息变化情况。ADCSCM中每个神经元的链接强度并不相同,通过区域平均梯度自适应调整链接强度,恰好对应着不同神经元的链接特性。为了更好地保留高频部分有效信息,本文增加主对角线和副对角线处方向的梯度计算[19],形成改进区域平均梯度IAG。IAG的数学表达式为:
式(17)~(21)中:×表示区域大小,本文取为3×3,1(,)、2(,)、3(,)、4(,)分别为当前区域内的垂直、水平、主对角和副对角的梯度。
同时,本文提出链接强度由IAG自适应调整,但又不完全依赖于IAG,能够更好地表现出神经元之间的链接关系,反映出红外与可见光图像高频部分中不同像素点对应的神经元点火先后。链接强度表示为:
式中:0为初始链接强度,本文取0=2.0。
因此,本文提出的一种基于ADCSCM的融合规则具体可分为以下4步:
步骤1:利用式(14)~(16)计算出红外与可见光图像高频部分各自的外部输入激励,同时利用式(17)~(22)计算出红外与可见光图像高频部分各自的链接强度;
步骤4:通过ADCSCM获取的高频部分融合系数HF(,)选取规则为:
3 实验与分析
为了检验本文算法的融合性能,选取CVT[20]、NSCT[21]、GTF[22]、NSCT-PCNN[23]、NSST- PAPCNN[24]、MS-WLS[3]、MLGCF[8]共7种融合算法与本文算法进行融合对比实验。实验中,选取4组经典的红外与可见光图像进行融合,分别记为“Camp”、“Lake”、“Flower”和“Bench”图像。实验相关环境为:Intel Core i7-9750H,CPU主频为2.60GHz,内存为16GB,Windows10操作系统和Matlab 2019a软件仿真平台。
图3~6为4组经典的红外与可见光图像在8种不同的融合算法下所得到的融合结果。
图3 “Camp”图像的融合结果
图4 “Lake”图像的融合结果
图6 “Bench”图像的融合结果
3.1 主观视觉分析
首先,通过人眼视觉系统对上述4组红外与可见光图像的融合结果进行主观分析。
图3为“Camp”图像的融合结果。CVT和NSCT算法的融合图像对比度和清晰度偏低,纹理细节损失较多,且人物目标处存在伪影现象;GTF算法的融合图像人物目标部分丢失且整体模糊,严重缺失可见光细节;NSCT-PCNN和NSST-PAPCNN算法的融合图像人物目标较清晰,但严重缺失纹理细节和围栏信息,且NSST-PAPCNN算法的融合图像边缘轮廓十分模糊;MS-WLS和MLGCF算法的融合图像人物目标较清晰,纹理细节较为丰富,但缺失了部分可见光细节;而本文算法的融合图像人物目标和边缘轮廓清晰,纹理细节丰富,灌木、围栏等背景信息保留完整。
图4为“Lake”图像的融合结果。CVT、NSCT和GTF算法的融合图像对湖面信息表征出不同程度地丢失,未能成功地综合可见光图像的湖面信息;NSCT-PCNN算法的融合图像林木信息茂盛,但湖面存在着区域污染,NSST-PAPCNN算法的融合图像整体偏亮,右上角字母处较模糊;MS-WLS和MLGCF算法的融合图像整体对比度偏低,湖面和草地信息较丰富;本文算法的融合图像整体对比度适中,清晰度高,较好地结合了红外与可见光图像的湖面和草地信息。
图5为“Flower”图像的融合结果。8种算法的边缘轮廓清晰、纹理细节较丰富,但CVT和NSCT算法的融合图像红外目标处存在着伪影;GTF、NSCT-PCNN和NSST-PAPCNN算法的融合图像清晰度较低;本文算法的融合图像红外目标更突出,整体清晰度和视野信息保真度更高。
图6为“Bench”图像的融合结果。CVT和NSCT算法的融合图像缺乏纹理细节,人物目标处存在伪影;GTF算法的融合图像严重缺失可见光图像里的信息;NSCT-PCNN算法的融合图像人物目标较突出,但水面处存在着区域污染;NSST-PAPCNN算法的融合图像人物目标模糊,但缺乏背景信息;MS-WLS和MLGCF算法的融合图像视野信息保真度较高,缺乏背景信息;本文算法的融合图像人物目标突出,可见光背景信息丰富,边缘轮廓清晰。
故综合对比图3~6,本文算法的融合图像主观视觉效果表现最佳,更符合人眼视觉系统的输出。
3.2 客观指标评价
本文选用互信息(Mutual Information, MI)、信息熵(Information Entropy, IE)、空间频率(Spatial Frequency, SF)、标准差(Standard Deviation, SD)以及视觉信息保真度(Visual Information Fidelity for Fusion, VIFF)共5项指标对4组红外与可见光图像的融合结果进行客观评价,5项客观指标为正项指标,其值越大表明着融合效果相对越好。表1为4组融合图像在5项指标下的客观评价结果,最优值已通过加粗标出。
观察表1,通过对比4组图像上8种融合算法各自的5项客观指标值,可以发现本文算法的SF在“Camp”图像上稍低于MS-WLS算法,在“Lake”图像上低于NSCT-PCNN和MS-WLS算法,在“Flower”图像上稍低于MLGCF算法,在“Bench”图像上稍低于MS-WLS算法;VIFF在“Lake”图像上略低于MS-WLS算法,在“Octec”图像上低于MS-WLS和MLGCF算法,其余两组图像上,本文算法的VIFF均为最优值;此外,本文算法对MI、IE和SD共3项指标值的提升效果显著,在4组融合图像上始终为最优值,并在IE和SD两项指标上远高于其他7种融合算法。综合上述对4组融合图像的5项客观指标值进行分析,本文算法的整体表现最佳。综合主观视觉分析和客观指标评价而言,本文算法的融合性能最佳,优于其他7种传统或当前流行的融合算法。
表1 4组融合图像的客观评价结果
4 结论
本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。利用NSST的平移变换性、各向异性等特点将红外与可见光图像分解为低频和高频部分,通过自适应加权法则指导低频部分进行融合,同时通过基于ADCSCM的融合规则指导高频部分进行融合。实验结果表明,本文算法在主观视觉和客观指标上均表现更优,其融合图像更为清晰,红外目标突出,纹理细节和边缘信息也更丰富,同时能够获得较高的互信息、信息熵和标准差,是一种有效的红外与可见光图像融合算法。
[1] 刘佳, 李登峰. 马氏距离与引导滤波加权的红外与可见光图像融合[J]. 红外技术, 2021, 43(2): 162-169.
LIU Jia, LI Dengfeng. Infrared and visible light image fusion based on mahalanobis distance and guided filter weight-ing[J]., 2021, 43(2): 162-169.
[2] 江泽涛, 何玉婷, 张少钦. 一种基于对比度增强和柯西模糊函数的红外与弱可见光图像融合算法[J]. 光子学报, 2019, 48(6): 149-158.
JIANG Zetao, HE Yuting, ZHANG Shaoqin. Infrared and low-light-level visible image fusion algorithm based on contrast enhancement and cauchy fuzzy function[J]., 2019, 48(6): 149-158.
[3] MA J, ZHOU Z, WANG B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]., 2017, 82: 8-17.
[4] 王建, 吴锡生. 基于改进的稀疏表示和PCNN的图像融合算法研究[J].智能系统学报, 2019, 14(5): 922-928.
WANG Jian, WU Xisheng. Image fusion based on the improved sparse representation and PCNN[J]., 2019, 14(5): 922-928.
[5] LIU Z, FENG Y, CHEN H, et al. A fusion algorithm for infrared and visible based on guided filtering and phase congruency in NSST domain[J]., 2017, 97: 71-77.
[6] 邓立暖, 尧新峰. 基于NSST的红外与可见光图像融合算法[J]. 电子学报, 2017, 45(12): 2965-2970.
DENG Linuan, YAO Xinfeng. Research on the fusion algorithm of infrared and visible images based on non-subsampled shearlet transform[J]., 2017, 45(12): 2965-2970.
[7] 王聪, 钱晨, 孙伟, 等. 基于SCM和CST的红外与可见光图像融合算法[J]. 红外技术, 2016, 38(5): 396-402.
WANG Cong, QIAN Chen, SUN Wei, et al. Infrared and visible images fusion based on SCM and CST[J]., 2016, 38(5): 396-402.
[8] TAN W, ZHOU H, SONG J, et al. Infrared and visible image perceptive fusion through multi-level Gaussian curvature filtering image decomposition[J]., 2019, 58(12): 3064-3073.
[9] 冯贺, 李立, 赵凯. 基于拉普拉斯分解耦合亮度调节的可见光与红外图像融合算法[J]. 电子测量与仪器学报, 2020, 34(10): 91-97.
FENG He, LI Li, ZHAO Kai. Fusion algorithm of visible and infrared image based on Laplace decomposition coupled with brightness adjustment[J]., 2020, 34(10): 91-97.
[10] GUO K, LABATE D. Optimally sparse multidimensional representation using shearlets[J]., 2007, 39(1): 298-318.
[11] 焦姣, 吴玲达. 向导滤波和NSST相结合的多光谱与全色图像融合算法[J]. 通信学报, 2018, 39(S2): 79-87.
JIAO Jiao, WU Lingda. Multispectral and panchromatic images fusion method based on guided filter and NSST[J]., 2018, 39(S2): 79-87.
[12] ZHAN K, ZHANG H, MA Y. New spiking cortical model for invariant texture retrieval and image processing[J]., 2009, 20(12): 1980-1986.
[13] ZHAO C, HUANG Y, QIU S. Infrared and visible image fusion algorithm based on saliency detection and adaptive double-channel spiking cortical model[J]., 2019, 102:102976.
[14] 罗娟, 王立平, 谭云兰. 二代Curvelet变换耦合细节度量模型的遥感图像融合算法[J]. 电子测量与仪器学报, 2019, 33(7): 129-136.
LUO Juan, WANG Liping, TAN Yunlan. Remote sensing image fusion method using second generation curvelet transform coupled with detail metric model[J]., 2019, 33(7): 129-136.
[15] 苏金凤, 张贵仓, 汪凯. 结合鲁棒主成分分析和非下采样轮廓波变换的红外与可见光图像的压缩融合[J].激光与光电子学进展, 2020, 57(4): 84-93.
SU J F, ZHANG G C, WANG K. Compressed fusion of infrared and visible images combining robust principal component analysis and non-subsampled contour transform[J]., 2020, 57(4): 84-93.
[16] YIN S, CAO L, TAN Q, et al. Infrared and visible image fusion based on NSCT and fuzzy logic[C]//2010, 2010: 671-675.
[17] 朱攀, 黄战华. 基于二维经验模态分解和高斯模糊逻辑的红外与可见光图像融合[J]. 光电子·激光, 2017, 28(10): 1156-1162.
ZHU Pan, HUANG Zhanhua. Fusion of infrared and visible images based on BEMD and GFL[J]., 2017, 28(10): 1156-1162.
[18] 闫利, 向天烛. NSCT域内结合边缘特征和自适应PCNN的红外与可见光图像融合[J]. 电子学报, 2016, 44(4): 761-766.
YAN Li, XIANG Tianzhu. Fusion of infrared and visible based on edge feature and adaptive PCNN in NSCT domain[J]., 2016, 44(4): 761-766.
[19] 侯瑞超, 周冬明, 聂仁灿, 等. 结合HSI变换与双通道脉冲发放皮层的彩色多聚焦图像融合[J]. 云南大学学报: 自然科学版, 2019, 41(2): 245-252.
HOU Ruichao, ZHOU Dongming, NIE Rencan, et al. Multi-focus color image fusion using HSI transform and dual channel spiking cortical model[J].: Natural Sciences Edition, 2019, 41(2): 245-252.
[20] Nencini F, Garzelli A, Baronti S, et al. Remote sensing image fusion using the curvelet transform[J]., 2007, 8(2): 143-156.
[21] ZHANG Q, Guo B. Multifocus image fusion using the nonsubsampled contourlet transform[J]., 2009, 89(7): 1334-1346.
[22] MA J, CHEN C, LI C, et al. Infrared and visible image fusion via gradient transfer and total variation minimization[J]., 2016, 31: 100-109.
[23] QU X, YAN J, XIAO H, et al. Image fusion algorithm based on spatial frequency-motivated pulse coupled neural networks in nonsubsampled contourlet transform domain[J]., 2008, 34(12): 1508-1514.
[24] YIN M, LIU X, LIU Y, et al. Medical image fusion with parameter-adaptive pulse coupled neural network in nonsubsampled shearlet transform domain[J]., 2019, 68(1): 49-64.
Infrared and Visible Image Fusion Algorithm Based on Gaussian Fuzzy Logic and Adaptive Dual-Channel Spiking Cortical Model
LI Wen,YE Kuntao,SHU Leilei,LI Sheng
(School of Science, Jiangxi University of Science and Technology, Ganzhou 341000, China)
To overcome the shortcomings of current infrared and visible image fusion algorithms, such as non-prominent targets and the loss of many textural details, a novel infrared and visible image fusion algorithm based on Gaussian fuzzy logic and the adaptive dual-channel spiking cortical model (ADCSCM) is proposed in this paper. First, the source infrared and visible images are decomposed into low- and high-frequency parts by non-subsampled shearlet transform (NSST). Then, these are combined with the new sum of the Laplacian and Gaussian fuzzy logic, and dual thresholds are set to guide the fusion of the low-frequency part; simultaneously, the fusion rule based on the ADCSCM is used to guide the fusion of the high-frequency part. Finally, the fused low- and high-frequency parts are reconstructed using inverse NSST to obtain the fused image. The experimental results show that the proposed algorithm has the best subjective visual effect and is better than the other seven fusion algorithms in terms of mutual information, information entropy, and standard deviation. Furthermore, the proposed algorithm can effectively highlight the infrared target, retain more textural details, and improve the quality of the fused image.
image fusion,non-subsampled sheartlet transform,Gaussian fuzzy logic,adaptive dual-channel spiking cortical model
TP391.41
A
1001-8891(2022)07-0693-09
2021-05-20;
2021-08-05
李文(1997-),男,硕士研究生,主要研究方向为图像融合。E-mail:13986775110@163.com。
叶坤涛(1972-),男,博士,副教授,主要研究方向为MEMS、信号处理。E-mail:mems_123@126.com。
江西省教育厅科学技术研究项目(GJJ170526)。