当前位置:首页 期刊杂志

智能传感器自诊断中AANN参数正交试验优选法

时间:2024-09-03

陈耿新,林若波

(揭阳职业技术学院 信息工程系,广东 揭阳 522000)

传感器往往工作在恶劣环境中,较易发生故障,因此要求智能传感器具备自诊断能力.自联想神经网络(auto-associative neural network, AANN)具有内部非正交性及网络输入向量等于输出向量的特点,适用于传感器故障诊断[1-3].但是,AANN乃至所有神经网络在参数选择上至今没有建立理论指导,也没有提出真正有效的方法,大多数是试凑选择、随机选择或经验选择,导致神经网络未能充分发挥优势.

近年来,许多学者开展了神经网络参数优选的研究[4-9].张辉等[4]提出一种RBF(radial basis function)神经网络参数优化算法,通过资源分配网络算法、剪枝策略、改进粒子群算法优化RBF网络的隐层神经元数目、权值等参数,以获得RBF网络的合适结构;薛升翔等[5]利用蛙跳算法优化RBF神经网络参数,与标准遗传优化算法、粒子群优化算法相比,该算法均方误差更小、逼近能力更好;赵晶等[6]针对部分优化方法收敛精度不高的缺点,提出基于文化量子粒子群算法的模糊神经网络参数优化方法,并应用于混沌时间序列预测,该方法具有一定优越性.上述方法均较复杂,仅能应用于特定神经网络,不能应用于AANN及推广至其他神经网络.正交试验法是研究和处理多因素试验的一种科学方法,将正交试验应用于AANN参数选择,是一种优化AANN直观易行、客观科学的方法.

本文对智能传感器自诊断模型中AANN进行建模,通过正交试验法对AANN的隐层神经元数目、μ值减小率和增长率、样本数目进行试验,利用训练时间t和误差平方和SSE (sum of the squared errors)组成的综合指标进行参数优化分析,得到最优参数.

1 系统建模

图1为智能传感器系统自诊断模型,首先通过一个训练好的AANN检测是否发生故障,如发生故障,再利用九叉树故障定位算法及AANN定位1个或多个故障传感器.

图1中AANN是拓扑结构对称的前馈型传递网络,除了具有一般前向神经网络的特征外,其独特之处在于具有单位增益,即正常情况下,其输入向量Xi(i=1, 2, …,s)等于输出向量Yi(i=1, 2, …,s),其中s为输入层、输出层神经元数目[10].

AANN的结构如图2所示,它包括1个输入层、若干隐含层和1个输出层.隐含层的第1层为映射层,用于提取输入信息的精华部分,其节点传递函数是Sigmoid函数f(x)= 1/(1+e-x)或其它类似的非线性函数;隐含层的中间层为瓶颈层,其维数是网络中最小的,对信息进行压缩,具有滤波去噪的作用,其节点传递函数可以是线性函数或非线性函数;隐含层的最后一层为解映射层,用于还原信息,其节点传递函数为非线性函数.可见,瓶颈层之前网络的功能是对输入信息进行映射,提取输入信息中精华部分,而瓶颈层之后网络的功能是对信息进行解映射,还原信息.

AANN利用误差反向传播(back propagation, BP)算法来进行训练.通过大量的训练样本,AANN自动调整隐含层(映射层、瓶颈层和解映射层)各节点传递函数的权重,进而得到各输入信息之间的内在关联,使输出信息和输入信息尽可能相等.当正确数据输入到AANN中,Yi=Xi;如果1个或多个输入数据受损,由于AANN内部的非正交性,Yi≠Xi.

2 正交试验

2.1 因素与水平选取

假设智能传感器系统包含10个传感通道,则AANN输入层、输出层神经元数目s=10.AANN采用收敛速度最快的训练方法:Levenberg-Marquardt算法,训练精度为0.01.选择AANN隐层神经元数目(m,n,m)、μ值减小率与增长率(p,q)、样本数目作为试验因素,其中,m为映射层和解映射层的神经元数目,n为瓶颈层的神经元数目,p和q分别为Levenberg-Marquardt算法参数μ值减小率与增长率.每个因素选取3个具有代表性的水平.

确定因素及水平后,选用正交表L9(33),其中下标表示需进行9次实验,33表示3因素3水平.表1是因素和水平表,因素A是隐层神经元数目(m,n,m),对应3个水平分别是(12, 2, 12)、(15, 3, 15)、(18,4, 18);因素B是μ值减小率与增长率(p,q),对应3个水平分别是(0.08, 8)、(0.1, 10)、(0.125, 12.5);因素C是样本数目,对应3个水平分别是100、120、140个.

表1 因素和水平表

2.2 指标选取

神经网络的2个重要指标是收敛速度及拟合程度.收敛速度可用训练时间t或训练次数表示,训练时间t更能反映实际收敛速度,故本试验选取训练时间t作为收敛速度指标;拟合程度可用误差平方和SSE或均方误差MSE(mean squared error)表示,误差平方和SSE更能反映各因素导致的误差变化趋势,故本试验选用误差平方和SSE作为拟合程度指标,SSE计算如式(1)所示,式中i=1,2,…,10.因为这2个指标重要程度均等,故在本试验中,训练时间t和误差平方和SSE权值均取50%.

(1)

AANN训练时间t和误差平方和SSE越小,AANN性能越优,所以采用式(2)所示综合指标.

(2)

式中,tk、SSEk分别为第k次试验结果的t值、SSE值(k=1, 2, ……, 9),tmax、SSEmax分别为tk、SSEk中的最大值,Zk为第k次试验结果的综合指标值,Zk越大,AANN越优.

2.3 AANN训练与试验

采用Matlab的神经网络工具箱对智能传感器自诊断中AANN参数正交试验优选法进行仿真.首先,建立AANN络,利用newff()函数建立5层AANN,输入层及3个隐含层传递函数为tansig,输出层传递函数为purelin,学习算法采用Levenberg-Marquardt算法;其次,训练AANN,训练时间设为 1 000 ms,精度设为0.01,设置μ值减小率和增长率相应水平值;最后,测试网络,验证网络建立及训练结果.

AANN训练完成后,根据正交表L9(33)输入A、B、C因素的不同水平组合,进行9次试验,得到相应的tk、SSEk,再根据式(2)计算综合指标值Zk.表2是AANN正交试验结果.

表2 AANN正交试验结果

从表2可以看出,6号试验结果Z6最大,表明该因素水平组合是9个试验中最佳的,但不一定是所有水平组合中最优的,需进一步进行数据处理与参数优选.

3 数据处理与参数优化

3.1 数据处理

首先,通过式(3)计算9次试验结果的均值.

(3)

然后,计算表2中j因素(j为A、B、C)第i水平(i=1, 2, 3)试验结果之和Kij.如B因素第2水平试验结果之和K2B=Z2+Z5+Z8.再由式(4)计算ωij.

(4)

式中,ωij表示j因素第i水平的效应,r为j因素上第i水平出现的次数,本试验中r=3.利用式(5)计算j因素的极差Rj.

Rj=max{ωij}-min{ωij}.

(5)

Rj越大,则j因素对试验结果影响越大.表3是试验直观分析计算表.

表3 试验直观分析计算表

从表3可以看出:①RC>RB>RA,所以各因素对AANN性能影响程度由主到次依次为C、B、A,C为主要影响因素;②ω2A>ω1A>ω3A,ω1B>ω3B>ω2B,ω1C>ω2C>ω3C,可断定A2、B1、C1分别为A、B、C因素的优水平(其中ji表示j因素的i水平).所以,A2B1C1为本试验的最优水平组合,即隐层神经元数目为(15, 3, 15),μ值减小率和增长率为(0.08, 8),样本数目为100时,AANN的收敛速度和拟合程度在本试验中最优.

3.2 参数优选

上述正交试验是简便、快速得到试验中最优水平组合的方法,能快速趋近于最优方案,但仍有可能漏掉最优方案.下面结合正交试验与因素-效应关系图,进行AANN参数优选,找出真正最优因素水平组合.

根据表2和表3作出图3所示的因素-效应图(趋势图).从因素-效应图可以看出,A3、B1、C1分别为A、B、C因素的优水平,组合A3B1C1总效应最大,即A3B1C1为趋势最优水平组合.但是,此趋势最优水平组合与上述试验最优水平组合A2B1C1不同.

一般来说,AANN隐层神经元数目越多,神经网络的拟合程度越高(神经元数目过多也会导致过拟合),但此时训练时间会相对较长,两者存在矛盾.所以,需对趋势最优水平组合A3B1C1和试验最优水平组合A2B1C1进一步试验、评估,找出AANN最优参数.

对趋势最优水平组合A3B1C1和试验最优水平组合A2B1C1重新试验的结果如表4所示.可以看出,A2B1C1在训练时间t和误差平方和SSE两项指标上均明显优于A3B1C1,所以A2B1C1为AANN最优参数,即隐层神经元数目为(15, 3, 15),μ值减小率和增长率为(0.08, 8),样本数目为100时,AANN性能最优,使智能传感器自诊断性能最优越.

表4 A3B1C1和A2B1C1试验结果

4 结语

正交试验是AANN等神经网络参数优选的简便、快速、有效方法,试验参数优选过程需结合趋势最优水平组合和试验最优水平组合,选择最优参数.

AANN可应用于智能传感器系统故障诊断,利用正交试验法对AANN参数进行优选,对于10个传感通道的传感器系统,其AANN的最优参数是隐层神经元数目为(15, 3, 15),Levenberg-Marquardt训练算法μ值减小率和增长率为(0.08, 8),样本数目为100;

AANN各因素对其性能影响程度由主到次依次为样本数目、μ值减小率和增长率、隐层神经元数目,样本数目为主要影响因素.

参考文献:

[1] HUANG Guo-jian, LIU Gui-xiong, CHEN Geng-xin, et al. Self-recovery method based on auto-associative neural network for intelligent sensors[C]//Intelligent Control and Automation (WCICA).IEEE,2010:6918-6922.

[2] SHAH B, SARVAJITH M, SANKAR B, et al. Multi-auto associative neural network based sensor validation and estimation for aero-engine[C]//AUTOTESTCON 2013. 2013:1-7.

[3] 李欢欢, 司风琪, 徐治皋. 一种基于鲁棒自联想神经网络的传感器故障诊断方法[J]. 中国电机工程学报, 2012, 32(14):116-120.

[4] 张辉, 柴毅. 一种改进的RBF神经网络参数优化方法[J]. 计算机工程与应用, 2012, 48(20):146-149.

[5] 薛升翔, 贾振红, 杨杰, 等. 用蛙跳算法优化RBF神经网络参数的研究[J]. 计算机工程与应用, 2011, 47(28):59-61.

[6] 赵晶, 孙俊, 须文波. 基于文化量子粒子群的模糊神经网络参数优化[J]. 计算机工程与应用, 2011, 47(10):17-19.

[7] 吴贵芳, 林青松, 孙秀明, 等. 基于小样本的神经网络参数优化选择方法[J]. 计算机应用, 2008, 28(7):1662-1664.

[8] 冯再勇. 一种值得推广的神经网络参数初始化方法[J]. 陕西科技大学学报, 2008, 26(6):124-127.

[9] 陈廷, 李立轻, 陈霞. 一种基于模糊逻辑的神经网络输入参数筛选方法:中国, 200610147213 [P]. 2006-12-14.

[10] KRAMER M A. Autoassociative neural networks[J]. Computers and Chemical Engineering, 1992, 16(4):313-328.

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!