当前位置:首页 期刊杂志

基于粒子群灰狼混合算法的多目标约束优化问题求解

时间:2024-05-04

黄 星,卢 宇,申 亮,林 兵

1(福建师范大学 物理与能源学院,福州 350108)2(福建师范大学 协和学院,福州350117)3(福建商学院,福州 350506)4(福建省信息网络重点实验室,福州 350003)

1 引 言

现实世界中的焊接桥梁优化设计、压力容器优化设计等领域会遇到很多优化问题,例如焊接桥梁优化设计需要在满足切应力、弯曲力、桥梁弯曲载荷等条件下,让造价成本最小化.压力容器优化设计的优化目标是压力容器耐压的前提下,总造价最小[1].这些问题包含若干等式约束和不等式约束,统称为约束优化问题(Constrained Optimizaiton Problems,COPs).解决此类约束优化问题,将对焊接桥梁、压力容器等领域的成本优化问题产生积极影响.

COPs在20世纪90年代被提出[2,3],约束优化问题通常是多项式复杂程度的非确定性问题(Nondeterminism Polynomial-Hard,NP-Hard),NP-Hard问题会产生很大的算法时间复杂度,对于解决约束优化问题,常用的方法是将约束优化问题转化成单目标优化问题或者多目标优化问题再进行解决.由于进化算法适合求解多项式复杂程度的非确定性问题,所以多目标进化算法(Multi-objectives Evolutionary Algorithms,MOEAs)能够通过进化算法来解决多目标优化问题.当带有约束优化的多目标进化算法被提出之后,运用带有约束优化的多目标进化算法来解决某些领域的问题引起了众多研究工作者的关注.刘敏等人提出了记忆增强的动态多目标分解进化算法[4],通过设计基于子问题的串式记忆方法来获得最优解.Askarzadeh提出了乌鸦搜索算法(Crow Search Algorithm,CSA)[5],通过基于乌鸦的智能行为来解决约束优化问题.Hadi提出带约束优化的水循环算法(Constrained Water Cycle Algorithm,CWCA)[6],基于对水循环过程的观察来解决问题.很多实验研究都证实了多目标优化方法的效率和问题的复杂度紧密相关[7-9],但确保多目标EAs(Evolutionary Algorithms,EAs)优于单目标EA仍然是个严峻的工作[10].由于多目标优化问题的复杂程度高并且难以均衡优化,所以通过分解多目标来降低问题的复杂度和达到均衡优化是一股热潮[11].例如,郑金华等人提出基于权重迭代的偏好多目标分解算法[12].张磊等人提出基于重新匹配策略的ε约束多目标分解优化算法[13].Xu等人通过带静态权值的加权法将问题分解为若干子问题[14].Wang等人通过动态权重的方法分解目标问题,在进化过程中有所侧重[11].为了更好的分解原目标,运用辅助目标,该目标的概念被Jensen首次提出[15].Jiao等人将辅助目标添加到原始问题,将COP问题转换为动态双目标优化问题[16].因为等价目标和辅助目标的运用能够使群体进化的过程更有侧重点,从而有效的提高组合优化问题的性能[17].Xu提出等价和辅助目标框架来解决多目标问题,将原始目标分解为等价目标和辅助目标,利用动态权重来调整搜索进程中的侧重方向[10].然而框架所涉及到的参数较多,在后续的算法使用过程中涉及到的参数数量较大,会造成实验较高的复杂度.所以本文考虑和粒子群优化算法(Particle Swarm Optimizaiton,PSO)相关的改进算法.EAs算法普遍是受到自然界生物的启发[18].粒子群优化算法受到自然界鸟群捕食的启发[19],PSO因为有着参数少、收敛速度快等优势,所以在各种领域都取得了一定的成功[20-22].虽然PSO的收敛速度快,但是平衡全局的能力差,容易陷入局部优化[23,24].最近兴起的算法灰狼优化器GWO(Grey Wolf Optimization,GWO)能够避免局部优化的困境[1,25],但由于过程较为复杂,导致搜索的时间较长.所以?enel等人提出了HPSGWO,是一种混合的PSO-GWO算法[23].

为了更好的解决多目标优化问题,本文将采取以下措施:1)首先使用辅助目标和等价目标(Helper And Equivalent Objective,HECO)来分解已知的约束优化问题,从而缩短粒子搜索过程中跨越“鸿沟”[26,27]的时间;2)通过参数自适应的HPSGWO算法来解决分解后的子问题.

2 问题模型

定义1(单目标约束优化问题).数学模型中,只有一个目标的约束优化问题可以表述如下:

(1)

定义2(多目标的优化问题).对于解决约束优化问题,常用的方法是多目标优化方法,多目标优化方法是将约束问题(COPs)转化为无不等式或等式约束的问题.双目标约束优化问题的数学模型,表述如下:

(2)

(3)

(4)

(5)

式(5)中的ε是指对等式约束所能允许的误差.

3 优化方法

本文所运用的HECO-HPSGWO优化算法是结合了HECO框架和参数自适应的HPSGWO算法.HECO框架能够在进化过程中平衡各个目标的权重.HPSGWO算法是一种混合算法,采用了PSO算法和GWO算法,并且在算法进行时,进行实时调参,提高准确性.

3.1 辅助目标和等价目标的方法

HECO是一种新型的框架,能够通过辅助目标来增加目标函数的搜索方向和通过等价目标来转换目标函数.因为等价目标的最优解集和原始的COP问题的最优解集一致,所以等价目标能够提供算法中粒子搜索的主要方向并且等价目标的解集能够满足原始COP问题的所有约束条件.而辅助目标是由原目标衍生而来,在算法进化的过程中,提供多样的进化结果,防止算法陷入局部最优.由于HECO框架利用了动态权重来均衡优化等价目标和辅助目标,所以性能超越可行性规则和死亡罚函数的进化方式.下文将介绍死亡罚函数和可行性规则以此来体现HECO框架的优点.

死亡罚函数如式子(6)所示,其中ΩF表示可行解,ΩI表示不可行解.

(6)

死亡罚函数处理约束时,当解为非可行解的时候,则直接丢弃,会造成某个某个适应度值优良而处在约束边缘化解的丢失,造成对解集不合理的评判.

可行性规则的运用有着以下原则:1)适应度较小的解优于适应度较大的解;2)可行解优于不可行解;3)如果两个解集都为可行解或者不可行解,通过对比两者违反约束的值来选择,较小的约束违反优于较大的约束违反.根据可行以上的规则,等价函数可以表示为:

(7)

(8)

基于加权求和的方法,分解目标问题可以转换为:

(9)

(10)

(11)

其中i=1,…,λ,j>0,其中t为运行的代数.

(12)

(13)

(14)

(15)

根据公式(14)和公式(15),最小化问题可以被分解为基于加权求和的λ个子问题:

(16)

其中i=1,…,λ.

(17)

(18)

t为循环的代数.在HECO-HPSGWO中,w1和w2被设计为线性增加而w3被设计为线性递减.权重的规则表述如下:

(19)

(20)

(21)

其中λ为子问题的数量,γ∈(0, 1)是关于约束条件的常量偏差值,t是循环代数,Tmax是最大循环代数的值.通过用动态权重调整辅助目标和等价目标的HECO框架中各个子问题的收敛情况,能够搜寻到更多的进化方向,同时它明确了等价函数,在进化过程中的主方向不变.HECO的运用结果能够展现多目标进化算法在解决约束优化问题的良好特性,从而促进HPSGWO算法更准确的解决目标问题.

3.2 粒子群优化算法(PSO算法)

Kennedy和Eberhart在1995年提出了一种新型的全局搜索方法即粒子群优化算法[19].实践证明,该方法在求解优化问题中是有效的[28].粒子群优化算法是一种具有个体改进、种群合作和竞争机制的启发式算法,它受启发于自然界中成群鸟类或成群鱼类的捕食行为.每一个粒子都在决策空间中以可适应的速度来更新自身的位置,以此来让粒子靠近所要求的空间,每个粒子的最优位置和粒子群中最优粒子的位置信息共同引导着粒子群的搜索的位置.第i个粒子在第j维度决策空间中的速度和位置的更新采用以下表达式:

vij(t+1)=wvij(t)+c1r1(pij(t)-xij(t)+
c2r2(pgj(t)-xij(t))

(22)

xij(t+1)=xij(t)+vij(t+1)

(23)

其中i=1,2,…,N;j=1,2,…,n;w是惯性权重,公式(22)中的r1和r2的值采用的是自适应更新的方法,具体的自适应更新方法会在3.5节中进行详细介绍,c1和c2是加速常数,分别决定了粒子向自身最优位置和种群最优位置的学习能力.

3.3 灰狼优化器(Grey wolf optimizer,GWO)

灰狼优化器受到灰狼群体的社会等级的启发[29,30].灰狼有很严格的社会等级统治制度,灰狼群体一共有4种等级的狼,分别为alpha,beta,delta,omega.Alpha是狼群中的领导者,它负责下定决策和向狼群发号施令.Beta是第2阶级的狼群,它负责帮助alpha号令其他狼.阶级底层的狼群是Omega,它不得不听从其他狼.

灰狼中的这4种狼彼此配合进行捕猎,灰狼捕猎的步骤主要为以下3个步骤:1)追踪、追逐、靠近猎物;2)追捕、包围、不断骚扰猎物直到猎物停止移动;3)攻击猎物.根据灰狼狩猎的数学模型,可以得到如下方程:

(24)

(25)

(26)

(27)

由于灰狼狼群是由alpha,beta,delta3种狼来决定狼群的位置,所以利用这3种狼的位置,能够判断出猎物的位置,3种狼与猎物直接的距离的数学表达式如下:

(28)

(29)

(30)

(31)

(32)

(33)

(34)

3.4 混合PSO-GWO(HPSGWO)

HPSGWO算法结合了PSO算法和GWO算法的优势[23].PSO算法能够搜寻快速,但在现实运用时容易陷入局部优化的困境中,GWO算法可以减少陷入局部优化的风险,但是运用GWO算法,运行的时间将会延长.HPSGWO算法的伪代码如算法1所示.

算法1.HPSGWO算法

输入:(MAXITR,FES,Pop,FES_Pop,Prob)

输出:种群粒子

1. 初始化种群粒子

2. Fori=1 to MAXITR:

3. Forj=1 to Pop:

4. 使用PSO来更新粒子的位置和速度

5. If rand(0,1) < prob:

7. Fork=1 to FES:

8. Form=1 to FES_Pop:

9. 运行 GWO

10. 更新α,β,δ灰狼位置

12. End for

13. End for

14. End if

15. End for

16. End for

3.5 HPSGWO参数的调整

HPSGWO算法中的参数对算法的收敛性起着重要作用,如果参数过大那么则会导致收敛过快,陷入局部优化,如果参数过小那么则会导致收敛过慢,时长较长.本文受到L-SHADE方法[31]的启发,L-SHADE方法调整参数是基于历史记忆,通过对比父代的适应度值和子代的适应度值的优劣,来判定这个参数的情况,如果进化过程优异,那么将参数的值保存进历史记忆的集合中,方便之后通过公式计算来更新参数.所以同理本文控制HPSGWO算法中的部分参数也将通过历史记忆集合的更新来更新参数的值.如表1所示算法设置了λ个位置来保存HPSGWO算法c1,c2,w的历史记忆的值.在算法刚开始的时候,Mc1,i,Mc2,i,MW,i(i=1,2,…,λ)集合中的初始值都为0.5,c1,c2,w参数的值通过柯西分布计算得到.计算方法如下:

表1 历史记忆Mc1,Mc2,MwTable 1 Historical memory of Mc1,Mc2,Mw

c1=randc(Mc1,0.1)

(35)

c2=randc(Mc2,0.1)

(36)

w=randc(Mw,0.1)

(37)

在每一代中,c1,c2,w通过历史记忆值来更新自身的值,Mc1,Mc2,MW是用来存储c1,c2,w的历史记忆值的集合.更新c1,c2,w参数的值,是通过父代和子代之间的数值比较来调整,当父代个体经过HECO-HPSGWO算法更新后的子代个体,它的适应度值优于父代个体的适应度值,说明粒子经过算法后往更优的空间发展,所以这一代的c1,c2,w的值是促进粒子往更优空间搜索,因此这一代的c1,c2,w被保存到记录参数优异的Sc1,Sc2,Sw集合中,Sc1,Sc2,Sw集合是用来算法更新使得子代更优的c1,c2,w的值,并且Sc1,Sc2,Sw又通过公式(38)~公式(41)来计算得到Mc1,Mc2,MW,之后c1,c2,w又通过公式(35)~公式(37)得到.参数自适应的伪代码如算法2所示.

算法2.HPSGWO参数自适应算法

输入:(Mc1,i,G+1,Mc2, i,G+1,MW,i,G+1,Sc1,Sc2,Sw)

输出:(Mc1,i,G+1,Mc2, i,G+1,MW,i,G+1)

17. IfSc1≠φandSc2≠φandSw≠φ:

18. IfMc1,i,G=⊥ orMc2,i,G=⊥:

19.Mw,i,G=⊥;

20. Else:

21.Mc1,i,G=meanWL(Sc1);

22.Mc2,i,G=meanWL(Sc2);

23.Mw,i,G=meanWL(Sw);

24.i++;

25. Ifi>λ,i=1;End if

26. End if

27. Else:

28.Mc1,i,G+1=Mc1,i,G;

29.Mc2,i,G+1=Mc2,i,G;

30.Mw,i,G+1=Mw,i,G

31. End if

在算法2中,i(1≤i≤λ) 是指参数更新的位置,在算法2循环刚开始的时候i的初始值为1,如果i>λ,那么i重置为1.算法2的规则如下:

Mi=meanWL(Si) ifSi≠Φ

(38)

(39)

(40)

Δfi=|f(xi,G)-f(xi-1,G-1)|

(41)

式(38)中的meanWL(S)(weighted Lehmer mean) 对于更新参数来说很重要,它具体是用来计算M的值.更新参数的原则是“实时改变参数”,这个原则会降低算法的收敛度,不易陷入局部优化,对于多维问题较为友好.

图1为HECO-HPSWO算法流程图.

图1 HECO-HPSWO算法流程图Fig.1 HECO-HPSWO algorithm flow chart

3.6 线性种群大小缩减

合适的种群大小可以有效的提高算法的性能,将种群大小缩减的方法融合到HPSGWO中能够提高性能.线性种群大小缩减(Linear Population Size Reduction,LPSR)是用于动态调整种群大小的适应度评估数的函数.初始的种群大小为Ninit,算法结束后的种群大小为Nmin.在每一代G中,种群大小NG的计算方法如下:

(42)

式(42)中FES为当前适合度评估的数量,MAX_FES适应度评估的最大数量的值.当NG

4 实验与分析

本文通过IEEE CEC2017函数(1)https://github.com/P-N-Suganthan/CEC2017来评估HECO-HPSGWO.通过28个维度D=10,30,50的函数(共3×28个测试函数).实验结果主要受到子种群大小λ和约束违反偏差数γ的影响,为了讨论参数对实验的影响,所以本文首先基于D=10的情况分别定量观测这两个参数.针对这两个参数进行消融实验.首先针对λ值对算法的影响进行研究,取γ为固定值,λ值为5个不同的值来进行比较,结果如表2-表6所示.表2-表6通过比较相同γ和不同λ的rank值来说明,随着λ值的增大,rank趋于稳定状态.其次针对γ值对算法的影响进行研究,取λ为固定值,γ值为5个不同的来进行比较,结果如表7-表11表示,明显可以观察到γ=0.1的情况表现优良且较为稳定.

表2 gamma=0.0的CEC2017结果Table 2 CEC2017 results for gamma=0.0

表3 gamma=0.1的CEC2017结果Table 3 CEC2017 results for gamma=0.1

表4 gamma=0.2的CEC2017结果Table 4 CEC2017 results for gamma=0.2

表5 gamma=0.3的CEC2017结果Table 5 CEC2017 results for gamma=0.3

表6 gamma=0.4的CEC2017结果Table 6 CEC2017 results for gamma=0.4

表7 lambda=10的CEC2017结果Table 7 CEC2017 results for lambda=10

表8 lambda=15的CEC2017结果Table 8 CEC2017 results for lambda=15

表9 lambda=20的CEC2017结果Table 9 CEC2017 results for lambda=20

表10 lambda=25的CEC2017结果Table 10 CEC2017 results for lambda=25

表11 lambda=30的CEC2017结果Table 11 CEC2017 results for lambda=30

为了更好的设置实验参数,本文通过以下过程来获得γ和λ参数的取值,如表12所示,HECO-HPSGWO取固定λ的值,γ的值取5个不同的来进行比较.如表13所示,HECO-HPSGWO取固定γ的值,λ的值取5个不同的来进行比较.

表12 λ为固定值时CEC2017参数设置Table 12 Parameter setting in CEC2017

表13 γ为固定值时CEC2017参数设置Table 13 Parameter setting in CEC2017

为了更好的测试HECO-HPSGWO的性质,对于λ和γ值的选取参考了rank的结果.为了得到合理的λ的选取,先取gamma=0.0的值作为观察,结果位于表14,如表14所示,当gamma值取最小的时候,lambda=20的rank值最大,表现最差.在选取γ值得时候,令lambda为最小值,lambda=10来作为观察,结果位于表15,如表15所示,gamma=0.1得时候rank值最小,表现最好.当HECO-HPSWO的gamma和lambda参数选择rank最好的情况,会降低算法性能优良的说服力,所以综合表14和表15的情况,在后期的实验中,本文选取gamma=0.1和lambda=20来评测HECO-HPSGWO算法的性能.

表14 在gamma=0.0时不同lambda值的HECO-HPSGWO的排序情况Table 14 Total ranks of HECO-HPSGWO with varying λ values on gamma=0.0

表15 在lambda=10时不同gamma值的HECO-HPSGWO的排序情况Table 15 Total ranks of HECO-HPSGWO with varying λ values on lambda=10

根据CEC2017比赛的规则,本文实验在D=10,30,50下,使用28个基准函数,根据函数的平均值和中位值结果进行排序.计算各算法在各维度上的秩值规则如下:

(43)

如表16所示,gamma=0.1的时候,不同lambda值得排序结果,表格中较优的结果已用加粗表现出来.表16中不同维度rank值的变化原因可从表18中得出,表18展示了不同lambda不同维度中的rank值的变化,从中位数的rank和平均数的rank两方面来展现.根据表16,可以看出当函数维度为10D的时候lambda=15的秩值为136为最好的结果,它小于函数维度为10D是lambda=10的秩值为153.在函数为10D的结果中,发现随着lambda步长为5的变化中,算法的rank值成下降趋势.但观察表18,在lambda=10,维度为30D的时候,平均数的rank最小,但中位数的rank第2小,说明在该情况下,测试函数的适应度值结果虽然优良,但不够稳定,造成结果之间的方差较大.在表16中,lambda=10,15,20时,rank值逐渐递减,但在lambda=25的时候,rank值达到最大,而lambda=30时候的rank值小于lambda=25时候的rank值,说明rank值并非随着lambda的增大而线性增大.在函数维度为D=30的时候,lambda=10的秩值最小为146,lambda=20的秩值第2小为148,D=30的时相较于D=10的情况下,rank的方差减少了41%,说明算法对于计算D=30的函数更具备稳定性.然而在D=50的时候,lambda=10的秩值最小为122,相较于lambda=10在10D和30D上面的表现更加优良,表现远优于其他的lambda的值,造成秩的总值在对比其他lambda值有较大的差距.说明在解决低维度问题的时候,算法中可以设置lambda=15来计算函数适应度会取得较好的效果,在维度较高的时候,算法中设置lambda=10所得结果较为准确.同时从表16可以看出,随着维度的升高,lambda=10情况下HECO-HPSGWO的秩值逐步递减,说明参数设置合理的情况下,本文所提出的HECO-HPSGWO能够解决高维度函数的难题.

表16 在CEC2017测试函数中不同lambda值的HECO-HPSGWO的排序情况Table 16 Total ranks of HECO-HPSGWO with varying λ values on CEC2017 benchmarks

表17 在CEC2017测试函数中不同gamma值的HECO-HPSGWO的排序情况Table 17 Total ranks of HECO-HPSGWO with varying γ values on CEC2017 benchmark

表18 在CEC2017测试函数中不同lambda值的HECO-HPSGWO的Median和Mean排序情况Table 18 Median and Mean ranks of HECO-HPSGWO with varying λ values on CEC2017 benchmarks

表19 在CEC2017测试函数中不同gamma值的HECO-HPSGWO的Median和Mean排序情况Table 19 Median and Mean ranks of HECO-HPSGWO with varying γ values on CEC2017 benchmarks

为了更好的评估算法的性能,下面将gamma=0.1,lambda=10的结果和gamma=0.0,lambda=20的结果与其他3个算法比较,这3个算法分别为乌鸦搜索算法(CCSA)[28]、受约束的模拟退火(CSA)[5]、带约束的水循环算法(CWCA)[6].这3个算法都广泛运用于多目标优化的问题上,用来比较的算法的参数设置均采用其原始文献推荐的方法,如表20所示.

表20 解决CEC2017测试函数中各算法的参数测试Table 20 Parameter settings of all compared algorithms in solving CEC2017 benchmark functions

乌鸦搜索算法、受约束的模拟退火算法、带约束的水循环算法都是近年来较为优越的算法.其中CCSA采用了直接控制约束的方法,放弃不可行的解.而CSA则采用了罚函数的方法,对不满足约束条件的解进行惩罚,使得不满足约束条件的解的适应度函数值将会较大.CWCA算法灵感是来源于自然界的水循环,以及河流和小溪如何流向大海.

在D=10和D=30时,比较算法求解CEC 2017基准函数得到的Fmean和SD值分别如表21和表22所示.其中Fmean和SD分别表示目标函数适应度值的均值和标准差,表格最后一行的BMF(Best Mean Fitness,BMF)为记录算法在28个测试函数上表现最优的函数个数总和.根据表21可得,在D=10的情况下,gamma=0.1,lambda=10时候的HECO-HPSGWO拥有11个最佳Fmean和3个第2最佳Fmean来求解这28个CEC 2017基准函数,这意味着该方法在解决这些具有挑战性的问题时具有良好的搜索精度.而gamma=0.0,lambda=20时候的HECO-HPSGWO仅拥有4个最佳Fmean和9个第2最佳Fmean来求解这28个函数.CSA和CWCA都能分别产生6个和8个Fmean在测试函数中,表明这两个算法都有一定的有效性,而CCSA的Fmean为零,说明CCSA在CEC2017测试函数上的表现较差.观察表22的数据可知,因为测试函数的维度升高,各个算法的性能都有不同程度的下降.gamma=0.1,lambda=10时候的HECO-HPSGWO依旧拥有最多的Fmean在28个测试函数中,它拥有12个最佳的Fmean和7个第2最佳Fmean.gamma=0.0,lambda=20时候的HECO-HPSGWO的表现较差,在28个测试函数中,它拥有1个最佳的Fmean和13个第2最佳的Fmean.CWCA和CSA有着相似的性能,在30D的情况下,分别有着8个和7个Fmean.而CCSA相对于D=10的时候,性能更差.

表21 CEC2017测试函数中HECO-HPSGWO和其他3个算法的性能比较(D =10)Table 21 Performance comparison between HECO-HPSGWO with three peer algorithms in CEC2017 benchmark functions(D=10)

续表21

表22 CEC2017测试函数中HECO-HPSGWO和其他3个算法的性能比较(D =30)Table 22 Performance comparison between HECO-HPSGWO with three peer algorithms in CEC2017 benchmark functions(D=30)

续表22

HECO-HPSGWO表现良好的原因,一是因为HECO的框架是动态权重分解问题的方法,能够根据最优解等原因实时更新搜索侧重点;二是因为HPSGWO算法结合了粒子群优化算法(PSO)和灰狼优化器(GWO)的优点,能够在高速搜索的同时避免陷入局部优化的困境中.

5 结 语

在本文中提出了一种结合HECO框架和HPSGWO算法的新型方法HECO-HPSGWO,该方法在gamma和lambda参数较小的情况下能够在CEC2017测试函数上表现良好.在函数维度为10D和30D的情况下,获得的函数最优值个数多于比较的算法,优于CCSA、CSA、CWCA3个算法.随着测试函数的维度增加,各个算法的性能有所下降,但HECO-HPSGWO和其他算法相比排在前列.在HECO-HPSGWO算法中gamma=0.1,lambda=10的结果和gamma=0.0,lambda=20的结果相差较大,尤其是在测试函数30D的情况时,gamma=0.1,lambda=10的HECO-HPSGWO只得到1个BMF,gamma=0.1,lambda=10的HECO-HPSGWO得到12个BMF,因为lambda的值较小的时候,能够发挥HECO框架中等价目标的引导作用,而灰狼优化器能够提供更多的搜索方向,在一定程度上相当于辅助目标的作用.但因为所涉及的参数较多,所以不良的参数会影响算法的性能.

未来我们会考虑根据更加多样的测试函数来评判算法、改进算法.同时我们也会扩大参数的搜寻范围,找出更适合的参数设置,对于多样的参数也会设置消融实验来展开更全面的分析,并尝试使用混合策略(Mixed Strategy)来提供自适应的参数搭配[32].

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!