基于目标提取的红外与可见光图像融合算法
2018-06-14李易东孟津平
李易东 孟津平
(长春理工大学 计算机科学技术学院,吉林长春 130012)
1 引言
随着多传感器技术的不断发展,图像融合作为多传感器信息融合的重要组成部分,属于以图像作为单位的重要研究领域。在同一个场景将多个传感器所获得的图像信息经过多层次、多方面的处理,最终获得对该场景更全面详尽的信息描述图像,这一技术称之为图像融合[1]。该定义也可以理解为将同源图像经过不同图像处理后,再次进行综合得到一幅新的图像。
2 改进目标边缘提取检测算法
(2)将第一步滤波后的图像进行拉普拉斯分解,如:
(3)通过拉普拉斯分解找出最适当的零交叉点。
模板可以通过∇2G(x,y)进行取样,设定标准系数生成系数之和为零的模板。生成滤波器最有效的方法是给定n*n大小然后对式∇2G (x,y)取样,将所得取样阵列与拉普拉斯分解模板进行卷积。
图1 红外与可见光图像融合
3 Otsu阈值分割
依据图像灰度属性将源红外图像分为两个部分,仅保留目标信息的图像和保留背景信息的图像,两幅图像的类间差值相差越大,表明两幅图像的差别越大,在图像分割中类间方差最大的值代表错分概率最小的,然后根据图像灰度属性计算出各个分割图像的类间方差,类间方差最大的就是我们所说的阈值[2]。
4 本文算法
本文所提出的图像融合算法是在多分辨率图像融合框架的基础上进行了一些调整,将红外与可见光源图像、红外目标提取后的目标图像作为多分辨率图像融合的对象。首先用LOG边缘检测算法将红外图像的目标信息提取出来,然后对红外图像、红外目标图像和可见光图像Contourlet变换[3],再对融合后的低频和高频子带系数做Contourlet逆变换获得最终的融合图像。
5 实验结果
为了比较算法在突出红外目标方面的优势,同时实现了基于目标提取与contourlet变换的红外与可见光图像融合算法(A)、在contourlet变换下仅在基于区域互信息量、匹配度的图像融合算法(B)。如图1所示,(a)可见光图像;(b)红外图像;(c)红外目标提取图像;(d)本文融合算法图像;(e)基于区域互信息量、匹配度的融合算法。采用平均梯度(G)、空间频率(SF)、标准差(SD)、相关系数(CC)这两种客观评价指标,对本文的两种算法进行判别。G与SF,所能反映的细节越丰富,图像越清晰;SD的值越大,目标信息越突出,对一些较小的目标有更好的侦查能力;CC的值主要用来衡量融合后图像与原图像的相似度,CC的值越大,说明在光谱上与结构上等方面融合图像与原图像的相似度越高。
表1可以看出算法A在空间频率、标准差、相关系数上明显高于算法B,这表明本文提出的算法无论在红外目标提取方面还是在保留目标细节、融合图像清晰度和与原图像对比相似度等方面都很优秀。
表1 第二组实验图像客观评价指标
[1]敬忠良,肖刚,李振华.图像融合:理论与应用[M].北京:高等教育出版社,2007.
[2]姚敏,等著.数字图像处理[M].北京:机械工业出版社,2006.
[3]喻汉龙,余胜生,周敬利,等.一种基于改进的Contourlet变换的图像压缩算法[J].计算机工程与应用,2005,(14),40-43.