当前位置:首页 期刊杂志

基于GA—SVM对HHT算法的优化

时间:2024-05-19

汤继磊

【摘 要】HHT在EMD分解的过程中会伴有端点效应的产生,并最终影响最后的分解结果,针对这种问题,本文首先利用遗传算法对支持向量机中不确定变量,惩罚函数C,和高斯核函数中的预设参数?滓的最优值进行优化,然后设计出回归模型,利用GA-SVM进行端点的预测,通过仿真验证,此方法可以很好的解决端点效应问题。

【关键词】HHT;端点效应;遗传算法;SVM

0 引言

之前大多数信号处理的方法处理非平稳信号时都是在傅里叶变换的基础上发展起来的,对于瞬时频率的定义也脱离不了傅里叶变换的束缚。在处理非平稳信号时,大部分的瞬时频率定义都需要在大于一个波长的情况下才能给出,对于小于一个波长的情况下,传统的定义显然也就失去了它的物理意义。对于上述问题,Norden E.Huang等人提出希尔伯特-黄变换(HHT)很好的解决了这一问题。此种方法创造性的提出了经验模态分解(EMD),可以有效的解开传统信号处理方法局限性的束缚。

经验模态分解(EMD)是依据数据自身的时间尺度特征来进行信号分解,不需要预先设定任何基函数,这一点与建立在先验性的谐波基函数和小波基函数基础上的傅里叶分解与小波分解方法具有本质性的差别[1]。EMD 方法在理论上可以应用于任何类型的信号的分解,因而在处理非平稳及非线性数据上,具有非常明显的优势[2]。

但EMD分解过程中会产生一个棘手的问题-端点效应,它将伴随每一级的IMF分量,致使最后分解结果的失败,本文针对这种问题,采用SVM进行端点的预测,通过回归模型解决上述问题。由于遗传算法操作简单,应用广泛、鲁棒性强、而且对于求解组合优化问题具有更好的效果[3],因此对于支持向量机中不确定变量:惩罚函数C,和高斯核函数中的预设参数?滓的最优值可由它来优化选取。

1 基本理论

1.1 HHT基本理论

经验模态分解(EMD)是依据数据自身的时间尺度特征来进行信号分解, EMD 方法在理论上可以应用于任何类型的信号的分解,具体分解步骤如下:

1)确认信号x(t)所有的极大值点与极小值点,运用插值算法将极大值点拟合生成出x(t)的上包络曲线Eup,将极小值点拟合生成出x(t)的下包络曲线Edown,计算求取上包络线与下包络线的数学均值,如下式所示:m(t)=(Eup+Edown)/2

2)将x(t)减去m(t)得:h(t)=x(t)-m(t)

判断h(t)是否满足IMF的条件,若满足,则h(t)就为第一阶的IMF:c1(t),若不满足,令h(t)=x(t),重复以上的操作。

3)重复1~2,直到提取所有的本征模函数ci(t)(i=1,2……n),最后剩余残差r(t)代表信号的平均趋势。所以最终x(t)可表示为:

1.2 支持向量机

支持向量机(Support Vector Machine, SVM)是Vapnik在1995年提出的,从提出以来,无论从工程应用还是理论研究都受到了极大的关注。它的基本思想是采用非线性映射方法将原始空间模式映射到高维特征空间,然后在高维特征空间进行回归分析,也就是经常所说的函数估计[4]。即f(x)=w?渍(x)+b,其中w,b表示待求的回归参数,?渍(x)表示特征函数。因此,在高维特征空间的函数估计通过映射关系便对应于在低维输入空间的非线性函数估计问题。对于某一训练集T=((x ,y ),(x ,y )...(x ,y ))其中n表示样本的长度x ?缀R ,y ?缀R,i=1,2,......n。则问题可转化为对经验风险R = L (f(x -y ))的极小化,且满足不等式:w ?燮c,其中w=[w w ... w ] ,c为常数,?着表示不敏感损失函数,其中不敏感损失函数有以下几种:线性不敏感损失函数、二次不敏感损失函数。其中最常用的是线性?着不敏感损失函数,它可以保持算法稀疏性。它的数学公式为:

其中y是估计器输出。

核函数的选择:目前所使用的核函数有线性核函数,多项式核函数,高斯核函数和多层感知器核函数,本文选择使用的是高斯核函数,其形式如下:

为了构造相应的对偶问题,将下式2-18中的w,b对其求微,并令其等于0,

即在 (a -a )=0和ai?叟0,a ?燮C,C为用户设定的惩罚参数,i=1,2.....n的约束条件下求解下式目标函数的最小值。即:

得到最优解为:

则可构造回归模型為:

我们把确定的回归函数中的参数a, 统称为回归参数。

2 GA-SVM回归预测算法设计

2.1 基于GA优化的SVM参数算法(GA-SVM)

支持向量机中惩罚函数C,和高斯核函数中的预设参数?滓的最优值是运用SVM处理问题的关键所在,如何得到最优值将直接影响最终的效果。由于遗传算法操作简单,应用广泛、鲁棒性强、而且对于求解组合优化问题具有更好的效果,因此支持向量机中惩罚函数C,和高斯核函数中的预设参数?滓的最优值可由它来优化。得到GA-SVM优化算法。我们假设每个个体为g =(g ,g )=(1gC,1g?滓),以SVM预测数据的误差为指标实现参数优化选择,具体步骤如下:

1)群体初始化;对参数进行浮点数编码,且令当前进化代数为0; 把SVM对训练样本的预测误差设定成个体适应度。

2)计算种群中个体的适应度值。

3)根据适应度值进行非支配排序,根据排序情况,选择对应的较优秀的种群。

4)将非支配集种群离散均匀化处理,然后再进行选择、交叉、变异。

5)以种群最大进化代数为终止条件,反复执行步骤2~步骤4。最大适应度值对应参数组合即为最优解。

2.2 回归预测算法设计

支持向量机具有较强的理论依据和较好的泛化性能,且比神经网络具有更好的效果[5],目前已经成功应用于回归估计等领域。因此采用支持向量回归算法对数据进行延拓来解决HHT的端点效应是非常有效的。

GA-SVM对数据序列的延拓可以分为预测学习和延拓两个过程,延拓又包括向后延拓和向前延拓两种,在此先介绍向后延拓的情况。假设数据序列的采样时间间隔是t,采样点数为M,得到的数据序列为S(0),S(1),......S(M-1),该数据序列也是对未来值进行预测时的输入序列。首先确定训练样本数n, 按照一定的规则产生训练集:

N=(x ,y ),(x ,y ),......,(x ,y ),

其中x =[S(i),S(i+1),...S(M-n+i-1)] ,1?燮i?燮n,构造回归模型,预测边界外的第一个点:

其中 ,然后将S(M +1)作为新的边界点,就可以得到第二个预测点S(M+2)依次类推下去,直到得到最后一个预测点:

其中P为所需延拓点的个数,x =[S(n+p),S(n+p+1),...,S(M+p-1)] 。对于向前延拓与向后延拓类似,本文将不在详细叙述。

假如我们给定一个信号:x(t)=sin(24?仔t)+0.5sin(50?仔t)+1.2sin(162?仔t)

其对应的三个频率成分为:12Hz,25Hz,81Hz,对应的幅值为:1,0.5,1.2。采用GA_SVM算法对原始信号50个采样点进行延拓仿真,其中GA中交叉概率取0.8,变异率取0.1,进化最大代数为20,群体规模取50。当经过GA优化的参数为为0.6,为1.2,结果如图1所示,其中“O”为原始信号波形,“*”为预测信号波形,从图中可以看出预测信号波形与原始信号波形基本拟合。拟合度可以达到96%以上。

3 总结

本文针对HHT在EMD分解过程中产生的端点效应,利用GA-SVM建立的回归模型,对端点效应进行处理,通过仿真分析,可以看出,此种方法对解决端点效应具有很好的效果。

【参考文献】

[1]HUANG N E,SHEN Z,LONG S R,et al.The Empirical Mode Decomposition and the Hilbert Spectrum for Nonlinear and Non-Stationary Time Series Analysis[J]. Proceedings of the Royal Society of London Series A-Mathematical, Physical and Engineering Sciences(S1364-5021).1998,454(1971):903-995.

[2]姚莉.移动机器人传感器故障诊断.西南科技大学硕士论文.2012.7.

[3]王宏生等.人工智能及其应用.北京:国防工业出版社,2009.

[4]鐘尔杰,黄廷祝.数值分析.北京:高等教育出版社,2004.7.

[责任编辑:田吉捷]

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!