当前位置:首页 期刊杂志

递归神经网络算法的稳定性判定准则

时间:2024-06-19

张艳邦,张 芬

(咸阳师范学院 数学与信息科学学院,陕西 咸阳 712000)

[数理科学与信息科学研究]

递归神经网络算法的稳定性判定准则

张艳邦,张芬

(咸阳师范学院 数学与信息科学学院,陕西 咸阳 712000)

讨论了一类递归神经网络算法的稳定性问题。给出了增广的Lyapunov-Krasovskii泛函,考虑了更多激活函数的信息。在Lyapunov-Krasovskii导函数中引入了自由权矩阵,降低了保守性,同时结合凸组合理论,处理了时变时滞,得到了以线性矩阵不等式形式的稳定性判定准则,此判定准则易于验证和推广。数值例子和仿真验证了文中方法的可行性。

递归神经网络;时变时滞;稳定性;Lyapunov-Krasovskii泛函

近年来,神经网络算法的研究已经广泛应用到计算机科学各个领域,如模式识别,信息处理,联想记忆处理等。由于信息传递的延迟性,时滞在神经网络中普遍存在,而且是影响算法收敛性的主要根源,因此,有关时滞神经网络算法稳定性的研究吸引了广大学者的注意[1-3]。

按照算法稳定性与时滞大小的相关性,现有的时滞神经网络判定性准则可分为时滞依赖和时滞独立两种类型。由于前者具有更弱的保守性,时滞依赖的稳定性研究受到了更多的关注。Ari[4]研究了动态时滞神经网络模型的鲁棒稳定性问题的,模型中非线性激活函数是范数有界,基于Lyapunov稳定性理论和同胚映射定理,得到了一个时滞无关的充分条件。Huang等[5]给出了含有离散时滞和分布时滞的神经网络模型时滞依赖稳定性判据,但是需要求解变分不等式。Kwon[6]等讨论了含有区间时变时滞的静态神经网络模型稳定性问题,结合增广的李雅普诺夫泛函提出了系统的稳定性条件,最近,也有一些学者[7-8]研究了递归神经网络算法模型的稳定性问题。

本文将讨论含时滞递归神经网络算法的时滞依赖稳定性问题。通过构造Lyapunov-Krasovskii泛函,运用自由权矩阵的方法并结合凸组合理论,以线性矩阵不等式形式给出了时滞依赖稳定性判据,这些判据较易通过Matlab工具箱[9]验证。

1 问题描述

考虑如下含时变时滞的神经网络算法模型

其中y(·)=[y1(·)y2(·)…yn(·)]T是特征向量,g(·)=[g1(·)g2(·)…gn(·)]T表示神经元激活函数,W=[W1,W2,…,Wn]T是特征关联权矩阵,

J=[J1,J2,…,Jn]T表示偏移性。d(t)是时变时滞,并且满足

其中h和μ是已知常数。

不失一般性,我们给出以下假设。

假设1神经元激活函数g(·)有界,且满足下式

根据激活函数的假设,神经网络算法模型存在一个平衡点 y*,为了简化计算,我们采用变换x(t)=y(t)-y*可以将模型(1)的平衡点转移到坐标原点,模型(1)转化为

其中f(·)=[f1(·)f2(·)…fn(·)],f(Wx(·))=g(W(x(·)+y*)+J)-g(Wy*+J)。

由假设1和fi(0)=0,可以得到

或者

在给出主要结论之前,我们给出以下引理

引理1[10]对任意实数矢量 a,b和矩阵R>0有:

引理2[11]对于任意常数矩阵Ψ1和Ψ2,对称矩阵Φ<0,标量h和函数h(t):ℜ+→[ ]0,h,若

满足,当且仅当有

引理3[12](Schur补)给定实常数矩阵S1、S2、 S3,其中,则,当且仅当

或者

2 神经网络算法稳定性分析

定理1若假设1满足,对给定的h、μ,若存在

对角阵

适当维数的矩阵Si,Ti(i=1,2,…,6),使得下列线性矩阵不等式满足

则算法模型(4)是渐近稳定的。其中

证明:构造如下的Lyapunov-Krasovskii泛函

其中

V(xt,t)沿模型(4)对t求导得

由假设(1)知

当Ω+d(t)STN-1S+(h-d(t)TN-1T<0时,(x,t)<0,即等价于

由引理3知,式(26)和(27)与式(11)和(12)等价,所以算法模型(4)是渐近稳定。

3 数值例子与仿真

考虑一个含有下列参数的时变递归神经网络算法模型,其参数矩阵为

图1 算法模型中特征向量的轨迹曲线

激活函数f(x)=0.3||sin(x),取

则神经元的激活函数满足假设1,当μ=1.2时,通过用文献[9]中的Matlab LMI工具箱求解线性矩阵式(11)(12),求得最大时滞为h=5.432。应用Simulink仿真得算法模型中特征向量的轨迹曲线如图1所示。因此通过本例验证了所提方法的有效性。

4 结论

本文给出了时滞递归神经网络算法模型的稳定性判据。通过构造新颖的Lyapunov-Krasovskii泛函,基于线性矩阵不等式,同时引入自由权矩阵和结合凸组合理论得到了保守性较弱的系统稳定性条件,最后,一个数值例子和仿真验证了本文方法的可行性。

[1]AHN C K,SONG M K.L2-L∞filtering for time-delayed switched Hopfield neural networks[J].International Journal of Innovative Computing,Information and Control,2011,7 (4):1831-1844.

[2]ZHANG Q,WEI X P,XU J.Global exponential stability for nonautonomous cellular neural networks with delays[J]. Physics LettersA,2006,351:153-160.

[3]AHN C K.Linear matrix inequality optimization approach to exponential robust filtering for switched Hopfield neural networks[J].Journal of Optimization Theory and Applications,2012,154(2):573-587.

[4]ARIK S.Dynamical analysis of uncertain neural networks with multiple time delays[J].International Journal of Systems Science,2014,DOI:10.1080/00207721.2014.902158.

[5]HUANG B N,HUI G T,GONG D W,et al.A projection neural network with mixed delays for solving linear variational inequality[J].Neurocomputing,2014,125:28-32.

[6]KWON O M,PARK M J,PARK J H,et al.New and improved results on stability of static neural networks with interval time-varying delays[J].Applied Mathematics and Computation,2014,239:346-357.

[7]ZENG Z G,YU H,ZHENG W X.Multistability of recurrent neural networks with time-varying delays and the piecewise linear activation function[J].IEEE Transactions on Neural Networks,2010,21(8):1371-1377.

[8]WANG Z S,ZhANG H G,JIANG B.LMI-based approach for global asymptotic stability analysis of recurrent neural networks with various delays and structures[J].IEEE Transactions on Neural Networks,2011,22(7):1032-1045.

[9]GHAOUI E,ERIC F,VENKATARAMANAN B.Linear matrix inequalities in system and control theory[M].SIAM,Philadelphia,1994.

[10]MAHMOUD M S.Resilient control of uncertain dynamical systems[M].Springer,Berlin,2004.

[11]ZHANG Y J,YUE D,TIAN E G.New stability criteria of neural networks with interval time-varying delay:a piecewise delay method[J].Applied Mathematics and Computation,2009,208:249-259.

[12]XU S,LAM J,HO D W C,et al.Delay-dependent exponential stability for a class of neural networks with time delays[J].Journal of Computational and Applied Mathematics,2005,183(1):16-28.

Stability Criteria for Recurrent Neural NetworksAlgorithm

ZHANG Yanbang,ZHANG Fen
(School of Mathematics and Information Science,Xianyang Normal University,Xianyang 712000,Shaanxi,China)

This paper discusses the convergence of a class of recurrent neural networks.First,the augmented Lyapunov-Krasovskii functional is given to consider more activation function information. Then an introduction is made of free weighting matrices to reduce the conservatism.And through combining the theory of convex combination to deal with time-varying delay,the stability criteria in the form of linear matrix inequality are easy to be verified and generalized.Finally,a numerical example and simulation results verify the feasibility of the proposed method.

recurrent neural network;time-varying delay;stability;Lyapunov-Krasovskii functional

O232

A

1672-2914(2015)04-0027-04

2015-05-10

陕西省教育厅科研计划项目(14JK1797);咸阳师范学院科研基金项目(14XSYK005,13XSYK009)。

张艳邦(1980-),男,河南商丘市人,咸阳师范学院数学与信息科学学院讲师,博士,研究方向为时滞系统、计算机视觉。

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!