基于Chebyshev融合头狼引导的狼群协同围攻策略的改进灰狼算法

一、理论基础

1、灰狼优化算法(GWO)

请参考这里

2、Chebyshev融合头狼引导的群体协同围攻策略的改进的灰狼算法(CCA-GWO)

2.1 Chebyshev种群初始化

不同的混沌映射对算法初始种群效果不同,故本文通过对Gauss、Tent 和Chebyshev映射分析对比,选择适用于灰狼优化算法的混沌映射,三种混沌映射生成的初始种群及原始初始种群如图1所示。
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

图1 三种混沌映射和原始随机映射在1000次迭代下生成的初始种群

由图1可知,在初始灰狼种群的生成来看,使用Gauss映射和随机生成的灰狼群在空间中分布更为均匀,甚至Tent映射的效果也优于Chebyshev映射,但本文最终还是选择使用Chebyshev作为最终的混沌映射初始种群生成方法,这是为了权衡灰狼群在狩猎过程中,处于边界群体对整个算法整体的效率影响,以便于增强算法处理极端问题的能力,同时由于Chebyshev映射自身生成随机数范围在 [ − 1 , 1 ] [-1,1] [1,1]之间,为兼顾空间分布遍历性和种群反向抑制特点,最终将Chebyshev映射引入GWO算法,其数学模型为 x ( t + 1 ) = cos ⁡ ( t cos ⁡ − 1 ( x ( t ) ) ) (1) x(t+1)=\cos(t\cos^{-1}(x(t)))\tag{1} x(t+1)=cos(tcos1(x(t)))(1)其中, x ( t ) x(t) x(t)为第 t t t次迭代时种群个体且 x ∈ [ − 1 , 1 ] x\in[-1,1] x[1,1] t t t为当前迭代次数。

2.2 头狼引导的狼群协同围攻策略

(1)收敛因子 a a a的修正

为模拟自然界中的狼群狩猎行为,本文对参数 a a a进行修正,修正后为 a = { 2 − 2 t t max ⁡ ,       t ≤ t max ⁡ 2 1 1 + exp ⁡ ( ( t − 0.75 t max ⁡ ) / ( 0.025 t max ⁡ ) ) , t > t max ⁡ 2 (2) a=\begin{dcases}2-\frac{2t}{t_{\max}},\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\,\,\,\,\, t≤\frac{t_{\max}}{2}\\\frac{1}{1+\exp\left((t-0.75t_{\max})/(0.025t_{\max})\right)},t>\frac{t_{\max}}{2}\end{dcases}\tag{2} a= 2tmax2t,t2tmax1+exp((t0.75tmax)/(0.025tmax))1,t>2tmax(2)其中, t t t为当前迭代次数, t max ⁡ t_{\max} tmax表示最大迭代次数。
在这里插入图片描述

图2 参数 a a a修正后在1000次迭代下的变化曲线

根据上图收敛因子 a a a的变化曲线可知,经修正后的算法迭代过程主要分三个部分:①迭代中前期,收敛因子呈线性递减趋势,此时灰狼群和猎物群体力充足,两者间距保持某个阈值逐渐逼近,收敛因子线性递减模拟灰狼追踪猎物两者位置接近过程;②迭代中期,,算法呈平缓非线性递减趋势,此时头狼和次头狼交换位置,灰狼群速度减慢,故与猎物间间距变大,收敛因子平缓降低模拟头狼交换带来的能量损失;③迭代后期,算法呈先快速递减再逐渐平缓递减趋势,此时头狼与次头狼位置交替完毕,而猎物群因体力不支速度下降,灰狼群速度上升,故此时两者间距急剧减小,直至包围猎物群时速度又突然降低,收敛因子变平缓。

(2)控制参数 c c c的修正

为了模拟自然界中的头狼与次头狼的相互交替结果,主要对 α \alpha α β \beta β狼参数进行修正,修正后为 C 1 = 2 r 2 − A 1 (3) \boldsymbol C_1=2r_2-\boldsymbol A_1\tag{3} C1=2r2A1(3) C 2 = 2 r 2 + A 2 (4) \boldsymbol C_2=2r_2+\boldsymbol A_2\tag{4} C2=2r2+A2(4)其中, C 1 , C 2 ∈ [ 0 , 2 ] \boldsymbol C_1,\boldsymbol C_2\in[0,2] C1,C2[0,2] A 1 = A 2 = A \boldsymbol A_1=\boldsymbol A_2=\boldsymbol A A1=A2=A C 1 \boldsymbol C_1 C1 A 1 \boldsymbol A_1 A1 α \alpha α狼的控制参数,代表头狼体力下降速度降低过程; C 1 \boldsymbol C_1 C1 A 2 \boldsymbol A_2 A2 β \beta β狼的控制参数,代表次头狼转化为头狼后速度增加过程。

(3)权值位置更新策略

控制参数 A \boldsymbol A A C \boldsymbol C C被修正后,位置公式修正为 { X i , α d ( t + 1 ) = X α d ( t ) − A 1 ⋅ ∣ C 1 ⋅ X α d ( t ) − X i d ( t ) ∣ X i , β d ( t + 1 ) = X β d ( t ) − A 2 ⋅ ∣ C 2 ⋅ X β d ( t ) − X i d ( t ) ∣ X i , δ d ( t + 1 ) = X δ d ( t ) − A ⋅ ∣ C ⋅ X δ d ( t ) − X i d ( t ) ∣ (5) \begin{dcases}\boldsymbol X_{i,\alpha}^d(t+1)=\boldsymbol X_\alpha^d(t)-\boldsymbol A_1\cdot|\boldsymbol C_1\cdot\boldsymbol X_\alpha^d(t)-\boldsymbol X_i^d(t)|\\\boldsymbol X_{i,\beta}^d(t+1)=\boldsymbol X_\beta^d(t)-\boldsymbol A_2\cdot|\boldsymbol C_2\cdot\boldsymbol X_\beta^d(t)-\boldsymbol X_i^d(t)|\\\boldsymbol X_{i,\delta}^d(t+1)=\boldsymbol X_\delta^d(t)-\boldsymbol A\cdot|\boldsymbol C\cdot\boldsymbol X_\delta^d(t)-\boldsymbol X_i^d(t)|\end{dcases}\tag{5} Xi,αd(t+1)=Xαd(t)A1C1Xαd(t)Xid(t)Xi,βd(t+1)=Xβd(t)A2C2Xβd(t)Xid(t)Xi,δd(t+1)=Xδd(t)ACXδd(t)Xid(t)(5)由于在灰狼等级制度中, α \alpha α β \beta β δ \delta δ狼等级制度不一致且为模拟头狼和次头狼的相互交替过程及灰狼体力消耗过程,本文对位置更新方程进行修正,表达式为 X ( t + 1 ) = X 1 − μ 1 X 1 + X 2 − μ 2 X 2 + X 3 − μ 3 X 3 3 (6) \boldsymbol X(t+1)=\frac{\boldsymbol X_1-\mu_1\boldsymbol X_1+\boldsymbol X_2-\mu_2\boldsymbol X_2+\boldsymbol X_3-\mu_3\boldsymbol X_3}{3}\tag{6} X(t+1)=3X1μ1X1+X2μ2X2+X3μ3X3(6)其中, μ 1 \mu_1 μ1 μ 2 \mu_2 μ2 μ 3 \mu_3 μ3分别为 α \alpha α β \beta β δ \delta δ狼的距离权重,其表达式为 { μ 1 = D α / ( D α + D β + D δ ) μ 2 = D β / ( D α + D β + D δ ) μ 3 = D δ / ( D α + D β + D δ ) (7) \begin{dcases}\mu_1=\boldsymbol D_\alpha/(\boldsymbol D_\alpha+\boldsymbol D_\beta+\boldsymbol D_\delta)\\\mu_2=\boldsymbol D_\beta/(\boldsymbol D_\alpha+\boldsymbol D_\beta+\boldsymbol D_\delta)\\\mu_3=\boldsymbol D_\delta/(\boldsymbol D_\alpha+\boldsymbol D_\beta+\boldsymbol D_\delta)\end{dcases}\tag{7} μ1=Dα/(Dα+Dβ+Dδ)μ2=Dβ/(Dα+Dβ+Dδ)μ3=Dδ/(Dα+Dβ+Dδ)(7)

2.3 CCA-GWO算法伪代码

改进的CCA-GWO算法求解最优化问题的寻优过程执行伪码如算法1所示。
在这里插入图片描述

二、数值实验与分析

为验证改进算法(CCA-GWO)具有更好的优化和收敛性能,本文选取8组基准测试函数[1]30维进行仿真实验并与6种元启发式算法进行对比。为保证实验客观公平性,本文初始化参数设置为:①种群规模:50;②最大迭代次数:1000;③实验次数: 50;④统计评价指标: 均值(Mean)、标准差(Std)及最优值(Best)和最差值(Worst);⑤对比算法:BOA、MFO、ASO、MVO、WOA和GWO。以F2、F4、F6、F8为例。
结果显示如下:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F2
BOA:最差值: 1.1522e-11,最优值:2.2013e-12,平均值:9.4886e-12,标准差:2.5284e-12
MFO:最差值: 90,最优值:0.00013603,平均值:33.8016,标准差:19.1542
ASO:最差值: 3.6555e-09,最优值:6.6778e-11,平均值:5.0394e-10,标准差:5.9362e-10
MVO:最差值: 0.44032,最优值:0.1718,平均值:0.29673,标准差:0.080369
GWO:最差值: 7.3043e-44,最优值:1.2002e-45,平均值:1.6957e-44,标准差:1.7556e-44
WOA:最差值: 3.2377e-107,最优值:7.3031e-120,平均值:9.7363e-109,标准差:4.9173e-108
GWO:最差值: 7.3043e-44,最优值:1.2002e-45,平均值:1.6957e-44,标准差:1.7556e-44
CCA-GWO:最差值: 3.3293e-213,最优值:5.6009e-217,平均值:2.4992e-214,标准差:0
函数:F4
BOA:最差值: 1.3034e-11,最优值:1.0175e-11,平均值:1.1448e-11,标准差:6.8038e-13
MFO:最差值: 84.1806,最优值:28.4439,平均值:56.4235,标准差:11.3706
ASO:最差值: 1.3324e-08,最优值:4.7829e-10,平均值:3.5662e-09,标准差:2.8757e-09
MVO:最差值: 1.0837,最优值:0.22464,平均值:0.63275,标准差:0.18975
GWO:最差值: 8.1389e-14,最优值:2.2701e-16,平均值:1.6372e-14,标准差:2.2001e-14
WOA:最差值: 84.7705,最优值:0.00041127,平均值:34.2182,标准差:27.0044
GWO:最差值: 8.1389e-14,最优值:2.2701e-16,平均值:1.6372e-14,标准差:2.2001e-14
CCA-GWO:最差值: 9.0986e-180,最优值:1.3634e-183,平均值:4.7134e-181,标准差:0
函数:F6
BOA:最差值: 181.4952,最优值:0,平均值:10.6562,标准差:42.6129
MFO:最差值: 226.0677,最优值:87.5561,平均值:148.2837,标准差:34.4997
ASO:最差值: 38.8033,最优值:13.9294,平均值:25.0332,标准差:6.0716
MVO:最差值: 170.2387,最优值:55.7885,平均值:103.9802,标准差:29.4934
GWO:最差值: 35.0352,最优值:0,平均值:8.5999,标准差:6.1977
WOA:最差值: 2.2737e-13,最优值:0,平均值:6.8212e-15,标准差:3.5656e-14
GWO:最差值: 35.0352,最优值:0,平均值:8.5999,标准差:6.1977
CCA-GWO:最差值: 0,最优值:0,平均值:0,标准差:0
函数:F8
BOA:最差值: 6.9944e-15,最优值:0,平均值:1.2679e-15,标准差:1.5438e-15
MFO:最差值: 90.9803,最优值:3.5964e-06,平均值:12.6857,标准差:31.7126
ASO:最差值: 0.012316,最优值:0,平均值:0.00073931,标准差:0.0025988
MVO:最差值: 0.6311,最优值:0.17669,平均值:0.41478,标准差:0.10747
GWO:最差值: 0.025681,最优值:0,平均值:0.0049664,标准差:0.0076323
WOA:最差值: 0,最优值:0,平均值:0,标准差:0
GWO:最差值: 0.025681,最优值:0,平均值:0.0049664,标准差:0.0076323
CCA-GWO:最差值: 0,最优值:0,平均值:0,标准差:0

实验结果表明:CCA-GWO具有更好的寻优性和稳定性。

三、参考文献

[1] 刘威, 郭直清, 姜丰, 等. 协同围攻策略改进的灰狼算法及其PID参数优化[J]. 计算机科学与探索, 2023, 17(3): 620-634.

  • 3
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心️升明月

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值