当前位置:首页 期刊杂志

YUV色彩空间下基于Curvelet变换的图像融合

时间:2024-06-01

王言 张豪文

摘要:提出一种在YUV色彩空间下基于二代Curvelet变换融合红外和可见光图像的算法。该算法将可见光图像转换到YUV色彩空间,然后提取其亮度分量Y和红外图像进行基于Curvelet变换的融合。对实验结果进行主客观分析,表明本算法较RGB色彩空间下的算法更好地保留了原图的色彩信息,较小波变换算法更多地保留了原图的有用信息,提高了融合图像的视觉效果。

关键词:图像融合;YUV色彩空间;Curvelet变换;视觉效果

中图分类号:TP391 文献标识码:A 文章编号:1007-9416(2018)01-0100-01

红外成像和可见光成像具有很强的互补性,将红外和可见光图像融合[1],可以有效结合红外图像中的目标特征和可见光图像中的细节特征[2],得到的融合图像既具有目标信息,又具有丰富的细节信息。为了提高红外和可见光融合图像的视觉效果,本文提出一种在YUV色彩空间下基于二代Curvelet变换[3]的算法。实验结果表明该算法的融合图像在视觉效果和客观数据上都取得了很好的效果。

1 基于YUV色彩空间的融合方法

RGB色彩空间并不能很好地从人眼视觉感知上描述颜色,故本文采用YUV色彩空间进行图像融合。YUV色彩空间使用亮度信号Y和两个色差信号U、V来描述色彩。由于亮度分量Y包含了图像的主要轮廓信息,所以本文将Y分量单独提取出来与红外图像融合,这样既减少了运算量,又可避免色彩失真。

2 Curvelet变换

小波分析只能表示信号的零维奇异性,并且不具有各向异性的二维小波基不能有效地表达二维信号中的例如边缘、轮廓等信息,在图像融合中会产生块状效应。Curvelet克服了小波分析的缺点,其长条形的支撑区间具有各向异性,能用更少的系数来表示曲线,因此能更好地表达边缘、轮廓等信息。

3 基于YUV和Curvelet变换的图像融合

首先将可见光图像转换到YUV色彩空间,对可見光图像亮度分量Y和红外图像分别进行Curvelet分解得到各自的低频与高频系数,采用加权平均的策略融合低频系数,采用模值取大的策略融合高频系数,将融合系数进行Curvelet重构得到融合图像,该融合图像作为新的亮度分量Y和原始的色度分量U、V进行YUV逆变换得到最终融合图像。

4 实验结果及分析

为了验证算法的有效性,选取了RGB色彩空间下的Curvelet变换(RGB-Curvelet)和YUV色彩空间下的小波变换(YUV-Wavelet)两种算法与本文算法进行融合结果的比较。融合结果如图1所示。

首先从主观视觉效果对比融合结果。可以看出YUV色彩空间下的融合图像(d) (e)比RGB色彩空间下的融合图像(c)中的色彩更为鲜艳,特别是图(d) (e)中房子顶部的红色饱和度更高,说明YUV色彩空间比RGB色彩空间更好地保留了原图的色彩信息。YUV-Wavelet融合结果图(d)中存在块状效应,而本文算法的融合结果图(e)中没有块状效应,其中树枝的纹理细节和房子的轮廓信息都比较清楚,说明小波变换融合图像时易产生块状效应,而Curvelet变换能更好地保留图像中的边缘、轮廓等信息。

为了客观地评价本文算法效果,选取了互信息、结构相似性、峰值信噪比三个图像评价指标对各算法融合图像进行了分析,结果如表1所示。

对三种算法融合结果的指标进行比较,本文算法融合结果的互信息比RGB-Curvelet和YUV-Wavelet算法分别提高了3.55%和3.19%,说明本文算法比RGB-Curvelet和YUV-Wavelet算法从原始图像获得的信息更多;本文算法融合结果的结构相似性与RGB-Curvelet算法基本相同,比YUV-Wavelet算法提高了10.71%,说明本文算法比YUV-Wavelet算法的融合图像与原图像的相似度高,质量更好;本文算法融合结果的峰值信噪比与RGB-Curvelet算法基本相同,比YUV-Wavelet算法提高了18.48%,说明本文算法比YUV-Wavelet算法融合图像的有用信息更多。

5 结语

本文提出的YUV色彩空间下基于Curvelet变换的红外和可见光图像融合算法较RGB色彩空间下的融合算法能更好地保留图像的色彩信息,并减少了算法计算量;较小波变换融合算法能保留更多的原始图像信息,视觉效果更好。

参考文献

[1]冀晓涛.基于Curvelet变换的红外与可见光图像融合研究[D].西安电子科技大学,2012.

[2]付梦印,赵诚.基于二代Curvelet变换的红外与可见光图像融合[J].红外与毫米波学报,2009,28(4):254-258.

[3]E. J. Candès, D. L. Donoho.Curvelets-a Surprisingly Effective Nonadaptive Representation for Objects with Edges[M].Nasbville,TN:Vanderbilt University Press,2000:1.

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!