时间:2024-09-03
王 凤, 万智萍
(中山大学新华学院,广东 广州 510520)
随着信息技术的发展,数字图像的处理技术被运用到生活中的方方面面;但随着人们对图像数据量与分辨率的要求提高,给数据的存储与传输带来了很大的不便;如在日常生活中,图像压缩问题随处可见,如将一张1280×1024的图像,按每个像素24比特率将其存储,那么其数据量将超过30兆等;因此,对图像的如何有效的进行压缩显得尤为重要,也是当前社会的一大研究热点。图像的压缩算法能够对原本较大的图像信号进行压缩,使其方便于数据的传输与交换;从最初的傅里叶变换在现如今的小波变换[1-5],诸多研究学者提出了许多创新的算法,其中具有代表性的有二维离散小波变换[6]、EZW算法[7]和SPIHT算法[8];但通过对算法的研究发现,EZW 算法虽然实现简单,却存在编码效率低的问题;而SPITH算法虽然能够有效的提高了编码效率,却由于算法过程复杂而不利于硬件实现;因此,本文采用离散二维小波变换函数,该函数通过建多尺度分析思想,最后形成了统一的小波函数构造理论,继承了短时傅立叶变换局部化的思想,同时又克服了窗口大小不随频率变化等缺点,被很好的运用于图像处理领域。
通过对离散二维小波变换的研究,并根据其具有的局部化特性,本文对图像进行分频处理,其中图像的最低低频子带,本文通过利用人眼的视觉敏感特性,将其分为敏感区与非敏感区,并结合其敏感度计算公式,提出小波系数的阈值保留算法,将图像的非敏感区小波系数置零,来减少图像的数据冗余;而对于图像的高频子带,则是根据小波变换后各子带的方向性,通过结合各子带中幅角的不同对其各方向的高频子带进行边缘阈值判断处理,来提高算法的编码效率,从而实现算法的最优化,使算法更加适用于图像的实时传输。
离散二维小波变换的一般表达式为:
对于可分离情况,尺度函数:
通过结合公式尺度函数)(xφ与小波函数)(xψ
最终得到小波的分解函数为:
为了更为清晰的了解各子带的情况,本文采用MATLAB 7.10.0软件对图像进行仿真,其仿真的图像为 256×256像素的 8bit灰度测试图像flower,经过仿真,得图1为小波变换的仿真分解图。
图1 小波变换的仿真分解图
小波算法分析:根据图1的小波变换仿真分解图,我们可以看出图像的主要信息集中与图像的最低频子带LL3中,而体现的细节信号主要分布于其他高频子带中;在传统的小波算法的压缩与处理的过程中,通常只考虑到对其高频子带进行处理;为了保证图像的质量,而放弃了对其最低频子带的处理,而忽略了最低频子带中也含有一些不必要的图像信号;而研究发现,在图像的最低低频子带中存储着图像的大体信息,如果能够有效对其进行处理,将有利于保证图像的提高算法的压缩效率。
为了有效的对图像进行压缩,本文根据人眼的视觉敏感度[9],对图像的最低低频子带进行压缩,其中人眼的视觉敏感度公式如下所示;
Al=0.81((1+0.7)/l)-0.2;Pmax为视觉敏感度的绝对峰值。通过仿真验证可以得到。
通过采用人眼的视觉敏感度公式,经过仿真得图2,由图2我们可以清楚的看到,图像信号的敏感度比较集中在中频区域,而在图像的高频区域呈指数递减的状态;由此可知,人眼的视觉敏感特性在图像的高频信号的敏感度不高;而对图像中的低频、中频区域比较敏感并且其敏感度比较集中。
图2 人眼对各频率的敏感度
为了更加精确的到达图像信号的分类,本文通过插入一个适当的阈值,定义为阈值1λ,来对图像信号进行分类,将各子带中的频率分为视觉的敏感区域与非敏感区域,并对其进行分类处理,来实现算法的最优化;即:
其中sV表示的是人眼视觉敏感度的大小。
针对以上现象,本文通过结合人眼的固有特性的敏感度性质,对图像的最低频子带LL3采用阈值保留压缩算法;由于人眼对高频区域具有较低的视觉敏感度,而对低频、中频区域具有较高的敏感度;因此,本文通过引入阈值保留法,对最低低频子带的视觉不敏感区域进行阈值处理;在保证图像视觉效果的同时将图像中的最低低频子带中的小波系数置零,从而减少算法的编码数量,有效的提高算法的压缩效率。其阈值保留算法公式如下所示。
其中i jω,为小波系数,sV为人眼的视觉敏感度。
通过采用该方法来保证传输视觉上的敏感信号,为算法的压缩提供了一个良好的条件;由于算法阈值λ1定了压缩质量的好坏,当阈值选取过大时,会使压缩质量下降;而当阈值选取过小时,又会造成压缩效果不佳;为此,本文对阈值进行定义,通过多次的试验;通过仿真得到出:当图像为高频、中频以及低频图像时,其所得图像的最佳阈值分别为 0.117、0.125和 0.126;为了使算法适应于各个频率的图像,本文取其平均值,则令阈值λ1的取值为0.124。
波变换的分析,可知图像的细节信号主要存储于图像的高频子带中,而图像的高频子带被分3个方向的频率子带,分别为水平方向、垂直方向以及对角线方向上的高频子带;为了更快的搜索出各子带中的最小波变换系数模的局部极大值点,本文通过分析传统的边缘检测算法;发现在传统的边缘检测算法中[10],大多采用的是对其目标的进行搜索,并对其目标点周围进行各方向的搜索,这样虽然能够得到较为精确的模级值,却无法快速有效的进行边缘优化,也没能有效的利用小波变换后的各子带的方向特性;因此,本文根据高频再带中的方向特性,将高频子带分为3类,分别进行模的局部极大值点搜索,即分为水平、垂直以及对角线这3个方向进行搜索,图3为各梯度方向上的模取局部极大值类型图,如图3所示。
图3 各梯度方向上的模取局部极大值类型
已知小波变换可以得到f(t)的小波变换:
则有可知其偏微分为:
则可以证明ψ(1x,y)、ψ(2x,y)可以作为二维小波变换的基函数,即:
定义二维图像信号f(x,y)的二进小波变换的函数表达式为:
则可以得到在尺度 2j时函数f(x,y)小波变换的模与幅角表达函数分别如下所示:
通过研究发现,平滑后的函数突变点在相应的A2jf(x,y)上M2jf(x,y)的局部极大值点上,由此在搜索局部极大值的时候,只需沿着A2jf(x,y)检测M2jf(x,y)就能够得到函数的突变点。这样有效的减少算法的搜索时间与计算量。因此,本文对其A2jf(x,y)进行分类,并在其上进行模的极值点进行判断,其判断过程如下所示:
步骤4将获得的模的极值采用阈值判断公式:
在候选边缘点中,判断是否为边缘点,并将非边缘信号置零,进而判断出模的局部极大值点。
通过采用A2jf(x,y)来获得小波变换模的级值,从而减少算法的计算量,而通过M2jf(x,y)来获得图像的边缘信号。通过边缘的判断定理,来将边缘信号有效的表达出来。
步骤 1开始;
步骤 2小波变换,对图像进行3级小波分解,从而得到不同级别不同序号的子带 LL3、HL3、LH3、HH3……HL1、LH1、HH1;
步骤 3对 LL1子带单独进行基于人眼视觉敏感特性的阈值保留算法;
步骤 5将获得的各方向上的模值,并采用阈值的判断公式(20);将获得的小波模值M2jf(x,y)与阈值λ2进行比较,最终获得各个方向子带的图像边缘信号,则转入下一步;
步骤 6首先恢复低频子图的图像,然后再恢复不同方向上的高频子带图像,通过结合最新获取的小波系数,对其进行逆小波变换得到重建图像最后完全恢复图像;
步骤 7结束。
为了验证改进后的小波变换图像压缩算法的压缩效果、压缩效率等特性,本文选取的测试工具是 MATLAB,并与传统的压缩算法进行对比,证明改进的算法的优越性。
1) 实验环境简介
在多次实验中,发现小波变换在图像分解与恢复的过程中分解为3层,其图像的压缩效果最好与图像的编码计算量最为适中,故这里用小波对256×256像素的8bit灰度测试图像cat,Flower以及beans分别进行3级小波分解。小波系数的编码采用的是SPIHT模型,实验用计算机处理器为core i5、软件为Matlab7.10.0;分解过程中对第二级小波分解的低频子带直接进行视觉阀值保留算法,块匹配分形预测编码从第三级3个高频子带开始。快速子带算法匹配块的大小根据子带分辨率的不同从低到高分别为:4×4, 8×8,12×12。经过多次分析与总结,得到阈值λ1的取值为0.124。
2) PSNR测试与分析
峰值信噪比 PSNR 是最普遍,最广泛使用的评鉴画质的客观量测法;经过算法图像压缩后,输出的图像通常都会与原始图像有某种程度不一样。为了衡量经过处理后的图像的品质,采用PSNR 值对其进行评价,其中PSNR的单位为dB;因此,它的值越大,代表图像的失真越少。
仿真中对具有高频、中频、低频成分组成的cat,Flower,beans这3种灰度图像进行实验,通过对比这 3种不同组成频率,来验证算法中对不同频率图像的压缩效果,进而对算法性能进行分析,经仿真,得图4为cat图像的压缩效果图,图5为flower图像的压缩效果图,图6为beans图像的压缩效果图,如图4、图5、图6所示。
图4 Cat图像的压缩效果图
图5 Flower图像的压缩效果图
通过观察图发现,图像cat主要由高频信号组成,而本文采用的是视觉敏感度压缩方法,在图像的最低低频子带中采用图像的阈值保留算法,使得图像的视觉不敏感区系数置零,进而对其进行压缩,因此,从仿真图4我们可以看出,本文的图像压缩效果与EZW与SPIHT相比,尽管图4中本文算法有些区域不自然,但总体效果优于EZW;而通过观察图5和图6,由于本文算法对图像的敏感区域有着保护作用,即对图像的低、中频信号进行了保护;而图像Flower与beans其主要成分分别为中频、低频信号,因此在对这两个仿真图像进行压缩时,能够有效的发挥了本文算法的优越性,最终由仿真图5与图6我们可以清楚的看到,经过压缩后的图像,本文算法的压缩质量优越EZW与SPIHT。
比较上述3种算法的压缩效率,本文是通过减少图像的冗余信息来,来减少算法的计算量,从而实现算法的实时压缩的;经实验,有效的证明了本文在压缩图像方面上的低耗时优势,其实验数据图7为各算法压缩时间对比图,其中压缩时间单位为秒,如图7所示。
图7 各算法的压缩时间对比图
为了更为清晰的证明本文算法在图像压缩方面的优越性,对其PSNR值进行仿真,得图8为cat数据PSNR曲线图、图9为Flower数据PSNR曲线图、图10为beans数据PSNR曲线图,如图8、图9、图10所示。
图8 Cat数据PSNR曲线图
图9 Flower数据PSNR曲线图
图10 Beans数据PSNR曲线图
通过观察各算法的PSNR曲线图可以看到,当图像的主要由高频信号组成的时候本文算法的压缩效果弱于SPIHT与EZW,但其效果与这两种效果相差无几;而当图像的主要组成成份为中频、低频时,其图像的压缩效果优于SPIHT与EZW,其PSNR值比SPIHT平均高2dB,尤其当图像主要由低频信号组成时,本文算法的压缩效果最佳,从PSNR曲线图可以看到,本文算法始终保持在SPIHT与EZW曲线上方,其中PSNR值平均高3.5dB左右,而相比EZW算法的PSNR值最高高达5.8dB。
本文通过在小波变换中增加阈值的形式,来减少图像中的数据冗余,通过结合人眼的视觉敏感度,根据图像的频率大小,对图像的最低子带其进行分类,并对非敏感区小波系数置零;高频子带则是结合小波变换的方向性,根据各子带中幅角的不同对其分类,最终实现算法的边缘保留,来减少算法中不必要的计算;实验结果表明,本文算法在高频图像中的效果一般,而对于低频、中频图像具有较好的压缩效果,其中对低频图像的压缩效果最佳;并且具有低耗时的图像压缩优势,与预期的效果相符,具有一定的实用价值。
[1]Vijaya C, Bhat J S. Signal compression using discrete fractional Fourier transform and set partitioning in hierarchical tree [J]. Elsevier. 2006, 86(8):1976-1983.
[2]Ye J C, Bresler Y, Moulin P. A Self-Referencing Level-Set Method for Image Reconstruction from Sparse Fourier Samples [J]. Kluwer Academic Publishers, 2002, 50(3): 253-270.
[3]Lisowska A. Extended wedgelets: geometrical wavelets in efficient image coding [J]. Polish Academy of Sciences, 2004, 13(3): 261-273.
[4]Ates H F, Orchard M T. Spherical coding algorithm for wavelet image compression [J]. Institute of Electrical and Electronics Engineers, 2009, 18(5):1015-1024.
[5]Pan Hong, Jin Lizuo, Yuan Xiaohui, Xia Siyu, Xia Liangzheng. Context-based embedded image compression using binary wavelet transform [J].Butterworth-Heinemann, 2010, 28(6): 991-1002.
[6]Lefebvre A, Corpetti T, Moy L H. Estimation of the orientation of textured patterns via wavelet analysis [J].Elsevier Science, 2011, 32(2): 190-196.
[7]Tohumoglu G, Sezgin K E. ECG signal compression by multi-iteration EZW coding for different wavelets and thresholds [J]. Pergamon Press, 2007, 37(2):173-182.
[8]Pan Hong, Siu W C, Law N F. A fast and low memory image coding algorithm based on lifting wavelet transform and modified SPIHT [J]. Elsevier Science Inc, 2008, 23(3): 146-161.
[9]Fang Yuming, Lin Weisi, Lee B S, Lau C T, Chen Z Z,Lin C W. Bottom-Up saliency detection model based on human visual sensitivity and amplitude spectrum [J]. IEEE Press, 2012, 14(1): 187-198.
[10]Zhang Zhen, Ma Siliang, Liu Hui, Gong Yuexin. An edge detection approach based on directional wavelet transform [J]. Pergamon Press, 2009, 57(8):1265-1271.
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!