求解全局优化问题的改进灰狼算法

一、理论基础

1、灰狼优化算法

请参考这里

2、改进的灰狼优化算法

(1)指数规律收敛因子调整策略

在GWO中,随迭代的更新方式采用一种线性递减策略,可用等式 a = 2 ( 1 − t / T ) a=2(1-t/T) a=2(1t/T)进行计算。研究表明重要参量的不同更新策略会极大影响算法的性能,而且线性策略往往不是最有效的。因此,本文提出了一种新的基于指数规律变化的收敛因子更新方式,如式(1)所示。 a = 2 e − t / T (1) a=2e^{-t/T}\tag{1} a=2et/T(1)如图1所示,线性表示GWO中所使用的收敛因子更新方式,指数形式表示本文提出的新的收敛因子更新方式。
在这里插入图片描述

图1 两种收敛因子

(2)自适应位置更新策略

为了更好地平衡算法的全局搜索和局部开发过程,本文提出了一种新的自适应的移步策略,其数学表达式为 X ( t + 1 ) = X 1 + X 2 + X 3 3 ( 1 − t T ) + X 1 t T (2) \boldsymbol X(t+1)=\frac{\boldsymbol X_1+\boldsymbol X_2+\boldsymbol X_3}{3}\left(1-\frac tT\right)+\boldsymbol X_1\frac tT\tag{2} X(t+1)=3X1+X2+X3(1Tt)+X1Tt(2)

(3)修订的动态权重策略

本文提出一种基于改进步长欧氏距离的比例权重,表达式如下 W 1 = ∣ X 1 ∣ ∣ X 1 ∣ + ∣ X 2 ∣ + ∣ X 3 ∣ + ε (3) W_1=\frac{|\boldsymbol X_1|}{|\boldsymbol X_1|+|\boldsymbol X_2|+|\boldsymbol X_3|+\varepsilon}\tag{3} W1=X1+X2+X3+εX1(3) W 2 = ∣ X 2 ∣ ∣ X 1 ∣ + ∣ X 2 ∣ + ∣ X 3 ∣ + ε (4) W_2=\frac{|\boldsymbol X_2|}{|\boldsymbol X_1|+|\boldsymbol X_2|+|\boldsymbol X_3|+\varepsilon}\tag{4} W2=X1+X2+X3+εX2(4) W 3 = ∣ X 3 ∣ ∣ X 1 ∣ + ∣ X 2 ∣ + ∣ X 3 ∣ + ε (5) W_3=\frac{|\boldsymbol X_3|}{|\boldsymbol X_1|+|\boldsymbol X_2|+|\boldsymbol X_3|+\varepsilon}\tag{5} W3=X1+X2+X3+εX3(5)结合前面的自适应位置更新策略,最终的灰狼位置更新方式可表示为 X ( t + 1 ) = W 1 X 1 + W 2 X 2 + W 3 X 3 3 ( 1 − t T ) + X 1 t T (6) \boldsymbol X(t+1)=\frac{W_1\boldsymbol X_1+W_2\boldsymbol X_2+W_3\boldsymbol X_3}{3}\left(1-\frac tT\right)+\boldsymbol X_1\frac tT\tag{6} X(t+1)=3W1X1+W2X2+W3X3(1Tt)+X1Tt(6)

(4)MGWO算法步骤

综合使用以上3种改进策略,本文提出的改进灰狼优化算法(MGWO)步骤如下:
a. 参数初始化。设定种群规模 N N N,总迭代次数 T T T,常数 ε \varepsilon ε;初始化 a , A , C a,\boldsymbol A,\boldsymbol C a,A,C
b. 在待解问题的搜索空间内随机生成灰狼初始种群。
c. 计算种群中所有灰狼个体的适应值,选择适应度值最优的个体,并记录其位置为 X α X_\alpha Xα。令 t = 1 t=1 t=1,迭代开始。
d. 判断算法是否满足终止条件,若满足,则输出最优解;否则,执行步骤e
e. 根据式(1)计算收敛因子 a a a
f. 灰狼种群按适应度值排序,排在前两位的位置分别被记录为 X β X_\beta Xβ X δ X_\delta Xδ
g. 根据式(3)~(5)计算动态比例权重,灰狼个体根据式(6)更新位置。
h. 将超出搜索空间的灰狼个体放回搜索空间。
i. 更新 X α X_\alpha Xα,令 t = t + 1 t=t+1 t=t+1,返回步骤d

二、实验与分析

为了实验验证提出的3种改进策略的有效性,选取了国际上通用的10种基准测试函数进行仿真实验。为保证无偏性,所有算法的种群数 N N N均设定为30,总迭代次数设定为500。为了排除随机性的影响,所有实验独立运行30次,取30次的最差值、最优值、平均值和标准差作为算法性能的度量标准。基准测试函数如表1所示。

表1 基准测试函数

在这里插入图片描述为了测试算法的搜寻性能,将该算法(MGWO-4)和标准GWO、MGWO-1(①指数规律收敛因子调整策略)、MGWO-2(②自适应位置更新策略)、MGWO-3(①和②)算法进行对比。
结果显示如下:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F1
GWO:最差值: 1.4552e-29,最优值:1.267e-32,平均值:1.5097e-30,标准差:2.7903e-30
MGWO-1:最差值: 4.2164e-40,最优值:9.4128e-43,平均值:1.0594e-40,标准差:1.2218e-40
MGWO-2:最差值: 1.0874e-38,最优值:5.508e-42,平均值:1.2997e-39,标准差:2.4961e-39
MGWO-3:最差值: 8.9691e-57,最优值:4.5738e-60,平均值:1.2464e-57,标准差:2.1382e-57
MGWO-4:最差值: 0,最优值:0,平均值:0,标准差:0
函数:F2
GWO:最差值: 4.3566e-18,最优值:1.336e-19,平均值:1.2576e-18,标准差:1.0638e-18
MGWO-1:最差值: 6.7863e-24,最优值:1.7592e-25,平均值:1.5421e-24,标准差:1.6552e-24
MGWO-2:最差值: 9.0065e-24,最优值:7.4007e-25,平均值:3.3896e-24,标准差:2.6174e-24
MGWO-3:最差值: 1.1217e-34,最优值:1.2677e-36,平均值:2.4423e-35,标准差:2.9482e-35
MGWO-4:最差值: 2.0473e-175,最优值:3.5013e-180,平均值:1.1512e-176,标准差:0
函数:F3
GWO:最差值: 0.085399,最优值:1.1767e-05,平均值:0.010158,标准差:0.019021
MGWO-1:最差值: 0.077595,最优值:6.9631e-08,平均值:0.0038984,标准差:0.015038
MGWO-2:最差值: 0.00064862,最优值:3.1603e-08,平均值:7.9843e-05,标准差:0.00016394
MGWO-3:最差值: 0.0018542,最优值:3.3833e-09,平均值:0.00017125,标准差:0.00039677
MGWO-4:最差值: 1.0646e-276,最优值:3.569e-290,平均值:3.6621e-278,标准差:0
函数:F4
GWO:最差值: 0.00047721,最优值:4.409e-06,平均值:8.2652e-05,标准差:0.00011329
MGWO-1:最差值: 3.3578e-06,最优值:9.6845e-09,平均值:7.6436e-07,标准差:9.1137e-07
MGWO-2:最差值: 1.2796e-06,最优值:2.2712e-08,平均值:3.4154e-07,标准差:3.3734e-07
MGWO-3:最差值: 4.5748e-09,最优值:1.8986e-13,平均值:3.6017e-10,标准差:9.9868e-10
MGWO-4:最差值: 5.0797e-153,最优值:8.0258e-158,平均值:3.8122e-154,标准差:9.8302e-154
函数:F5
GWO:最差值: 27.9046,最优值:25.7223,平均值:26.5071,标准差:0.62527
MGWO-1:最差值: 27.9041,最优值:25.7323,平均值:26.4825,标准差:0.57819
MGWO-2:最差值: 28.7171,最优值:25.3022,平均值:26.5141,标准差:0.69098
MGWO-3:最差值: 27.9004,最优值:25.6616,平均值:26.4911,标准差:0.52005
MGWO-4:最差值: 28.8818,最优值:27.2257,平均值:28.4811,标准差:0.41967
函数:F6
GWO:最差值: 1.0089,最优值:4.0651e-05,平均值:0.31731,标准差:0.28474
MGWO-1:最差值: 1.0329,最优值:0.050665,平均值:0.38327,标准差:0.29009
MGWO-2:最差值: 0.75711,最优值:0.00095895,平均值:0.27777,标准差:0.1885
MGWO-3:最差值: 1.5344,最优值:0.15741,平均值:0.5913,标准差:0.31121
MGWO-4:最差值: 5.2145,最优值:2.2123,平均值:3.6286,标准差:0.73186
函数:F7
GWO:最差值: 0.008381,最优值:0.0012311,平均值:0.0040679,标准差:0.0019271
MGWO-1:最差值: 0.0064329,最优值:0.0013821,平均值:0.003398,标准差:0.0013574
MGWO-2:最差值: 0.011478,最优值:0.0011815,平均值:0.0038971,标准差:0.002502
MGWO-3:最差值: 0.012945,最优值:0.0016476,平均值:0.0038201,标准差:0.0021987
MGWO-4:最差值: 0.00042738,最优值:2.8814e-06,平均值:9.6257e-05,标准差:0.00010126
函数:F8
GWO:最差值: 120.5225,最优值:2.2132,平均值:17.8204,标准差:21.0031
MGWO-1:最差值: 77.7232,最优值:4.0288,平均值:27.3338,标准差:16.2311
MGWO-2:最差值: 51.2889,最优值:4.8458,平均值:18.124,标准差:12.5412
MGWO-3:最差值: 101.1264,最优值:0,平均值:35.8796,标准差:31.5587
MGWO-4:最差值: 0,最优值:0,平均值:0,标准差:0
函数:F9
GWO:最差值: 3.2863e-14,最优值:1.5099e-14,平均值:2.102e-14,标准差:5.6238e-15
MGWO-1:最差值: 7.9936e-15,最优值:4.4409e-15,平均值:5.2699e-15,标准差:1.5283e-15
MGWO-2:最差值: 7.9936e-15,最优值:4.4409e-15,平均值:4.7962e-15,标准差:1.084e-15
MGWO-3:最差值: 4.4409e-15,最优值:8.8818e-16,平均值:1.0066e-15,标准差:6.4863e-16
MGWO-4:最差值: 8.8818e-16,最优值:8.8818e-16,平均值:8.8818e-16,标准差:0
函数:F10
GWO:最差值: 0.037742,最优值:0,平均值:0.0088621,标准差:0.011627
MGWO-1:最差值: 0.027145,最优值:0,平均值:0.0061021,标准差:0.0091115
MGWO-2:最差值: 0.026093,最优值:0,平均值:0.0054443,标准差:0.0084195
MGWO-3:最差值: 0.026507,最优值:0,平均值:0.0054687,标准差:0.0094762
MGWO-4:最差值: 0,最优值:0,平均值:0,标准差:0

仿真结果表明,综合使用3种改进策略的MGWO-4具有较强的局部最优避免性、较快的收敛速度、较高的求解精度,它明显提升了基本GWO的性能,更好地平衡了算法的全局搜索性和局部开发性。

三、参考文献

[1] 张阳, 周溪召. 求解全局优化问题的改进灰狼算法[J]. 上海理工大学学报, 2021, 43(1): 73-82.

  • 8
    点赞
  • 93
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心️升明月

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值