基于非线性控制参数组合策略的灰狼优化算法

一、理论基础

1、灰狼优化算法基本模型

请参考这里

2、改进GWO

对于不同的控制参数策略及非线性控制参数的组合策略中的调整参数, 选取多组值进行仿真实验,并通过多组实验的结果分析,选择最佳的组合策略的调整参数值。

(1)非线性控制参数

文献[1]采用的是线性控制策略,可表示为: a 0 ( t ) = a first − a first ⋅ ( t / T max ⁡ ) (1) a_0(t)=a_{\text{first}}-a_{\text{first}}\cdot(t/T_{\max})\tag{1} a0(t)=afirstafirst(t/Tmax)(1)本文提出一种基于正弦函数的调整参数控制策略,公式如下: a 1 ( t ) = a first − ( a first − a final ) ⋅ sin ⁡ ( 1 μ ( t T max ⁡ ) λ ⋅ π ) (2) a_1(t)=a_{\text{first}}-(a_{\text{first}}-a_{\text{final}})\cdot\sin\left(\frac1\mu\left(\frac{t}{T_{\max}}\right)^\lambda\cdot\pi\right)\tag{2} a1(t)=afirst(afirstafinal)sin(μ1(Tmaxt)λπ)(2)其中, a first a_{\text{first}} afirst a final a_{\text{final}} afinal分别为控制参数的初值和终值; μ \mu μ λ \lambda λ均为调节参数; T max ⁡ T_{\max} Tmax为最大迭代次数。
此外,为了进行权值系数的调整参数控制策略研究,本文应用了文献[2-3]中收敛因子的迭代公式: a 2 ( t ) = a first − ( a first − a final ) ⋅ ( t T max ⁡ ) 2 (3) a_2(t)=a_{\text{first}}-(a_{\text{first}}-a_{\text{final}})\cdot\left(\frac{t}{T_{\max}}\right)^2\tag{3} a2(t)=afirst(afirstafinal)(Tmaxt)2(3) a 3 ( t ) = a first 1 + e γ ⋅ t / T max ⁡ − k (4) a_3(t)=\frac{a_{\text{first}}}{1+e^{\gamma\cdot t/T_{\max}-k}}\tag{4} a3(t)=1+eγt/Tmaxkafirst(4)其中, γ \gamma γ为非线性调节系数; k k k为算法开发和搜索能力影响因子,其值越小,则算法在最优解附近搜索新的最优解的能力越强。本文中 γ = 10 , k = 7 \gamma=10,k=7 γ=10,k=7

(2)改进的非线性控制参数策略

根据式(2)—式(4),选择 a 1 a_1 a1 a 2 a_2 a2 a 3 a_3 a3三种策略进行组合,提出权值系数的调整参数控制策略,进而权衡局部搜索和全局搜索的收敛速度。表示如下: { w 1 = ∣ a 1 ∣ ∣ a 1 ∣ + ∣ a 2 ∣ + ∣ a 3 ∣ w 2 = ∣ a 2 ∣ ∣ a 1 ∣ + ∣ a 2 ∣ + ∣ a 3 ∣ w 3 = ∣ a 3 ∣ ∣ a 1 ∣ + ∣ a 2 ∣ + ∣ a 3 ∣ (5) \begin{dcases}w_1=\frac{|a_1|}{|a_1|+|a_2|+|a_3|}\\w_2=\frac{|a_2|}{|a_1|+|a_2|+|a_3|}\\w_3=\frac{|a_3|}{|a_1|+|a_2|+|a_3|}\end{dcases}\tag{5} w1=a1+a2+a3a1w2=a1+a2+a3a2w3=a1+a2+a3a3(5)则组合后的收敛因子可表示为: a = w 1 ⋅ a 1 + w 2 ⋅ a 2 + w 3 ⋅ a 3 (6) a=w_1\cdot a_1+w_2\cdot a_2+w_3\cdot a_3\tag{6} a=w1a1+w2a2+w3a3(6)

(3)改进策略调节参数的设定

本文分别对不同的 λ \lambda λ k k k的值进行仿真实验,其中 λ \lambda λ的取值为2~5, k k k的取值为6和7,限于篇幅,本文只给出2个仿真图。
在这里插入图片描述

(a) λ = 2 , γ = 10 , k = 6 \lambda=2,\gamma=10,k=6 λ=2,γ=10,k=6

在这里插入图片描述
(a) λ = 5 , γ = 10 , k = 7 \lambda=5,\gamma=10,k=7 λ=5,γ=10,k=7

图1 不同权值动态因子随迭代次数的变化曲线

可以看出,控制参数 a a a随迭代次数的曲线变化斜率对于非线性控制策略都是不断变化的,文献[2-3]提出的控制参数非线性的改进策略与本文提出的非线性参数控制调整策略均可有效地均衡算法的局部搜索和全局搜索能力。

(4)改进的算法流程

本文策略对应的改进GWO(GWO1)步骤如下:
Step 1 \quad 设置种群的规模 N N N、维度 d d d,初始化 a a a A \boldsymbol A A C \boldsymbol C C的值;初始化 X α \boldsymbol X_{\alpha} Xα X β \boldsymbol X_{\beta} Xβ X δ \boldsymbol X_{\delta} Xδ的值。
Step 2 \quad 计算每个个体的适应度值。
Step 3 \quad 比较各个个体的适应度值和 X α \boldsymbol X_{\alpha} Xα X β \boldsymbol X_{\beta} Xβ X δ \boldsymbol X_{\delta} Xδ的适应度值,确定当前的 X α \boldsymbol X_{\alpha} Xα X β \boldsymbol X_{\beta} Xβ X δ \boldsymbol X_{\delta} Xδ的值。
Step 4 \quad 根据本文策略,由式(2)、式(3)分别计算控制参数 a a a的值,以及根据相应公式分别对应计算 A \boldsymbol A A C \boldsymbol C C的值。
Step 5 \quad 根据相应公式更新种群个体的位置,再重新计算适应度值,并更新 X α \boldsymbol X_{\alpha} Xα X β \boldsymbol X_{\beta} Xβ X δ \boldsymbol X_{\delta} Xδ的值。
Step 6 \quad 判断当前迭代次数 t t t是否达到最大迭代次数 T max ⁡ T_{\max} Tmax的值,如果达到则结束,输出最优解,否则返回Step 2继续执行。

二、仿真实验与分析

1、基本测试函数

为了验证基于权重系数改进的灰狼优化算法的有效性,本文对表1中的6种基准测试函数进行仿真实验,并与基本的灰狼算法(GWO)、文献[2]提出的二次函数控制参数的灰狼优化算法(GWO2)、文献[3]提出的指数控制参数的改进灰狼优化算法(GWO3)的进行对比分析,并选择出相对较优的权重组合策略进行分析。表1中F1—F3为单峰函数,F4—F6为多峰函数。
在这里插入图片描述

表2 基准测试函数

2、实验参数的设置

本文的仿真实验中,算法的种群规模 N N N为30,最大迭代次数 T max ⁡ T_{\max} Tmax为500,控制参数初值 a first = 2 a_{\text{first}}=2 afirst=2,终值 a final = 0 a_{\text{final}}=0 afinal=0。非线性参数控制策略组合方式中的调节参数 μ = 2 , λ = 5 \mu=2,\lambda=5 μ=2,λ=5,非线性调节系数 γ = 10 \gamma=10 γ=10,算法开发和搜索能力影响因子 k = 6 k=6 k=6。本文采用MATLAB2018a进行仿真。

3、仿真分析

为验证权值系数的非线性参数控制组合策略及本文算法的性能优劣。针对同一测试的基准函数,对不同的参数控制策略对应的算法分别独立运行20次,并比较4种算法对6个基准测试函数的统计最大值(Max)、最小值(Min)、平均值(Mean)和标准差(Std)。
结果如下:
在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F1
GWO:最大值: 9.9593e-27,最小值:4.4557e-29,平均值:1.0679e-27,标准差:2.1637e-27
GWO1:最大值: 3.1535e-36,最小值:4.5459e-39,平均值:3.7375e-37,标准差:7.9931e-37
GWO2:最大值: 1.2584e-35,最小值:4.8174e-39,平均值:2.3501e-36,标准差:3.2142e-36
GWO3:最大值: 2.2955e-29,最小值:2.9167e-31,平均值:6.2011e-30,标准差:6.4717e-30
函数:F2
GWO:最大值: 0.0019486,最小值:1.442e-07,平均值:0.00010623,标准差:0.00043395
GWO1:最大值: 1.1507e-05,最小值:8.1742e-12,平均值:6.8186e-07,标准差:2.5733e-06
GWO2:最大值: 1.153e-05,最小值:2.6237e-10,平均值:1.0021e-06,标准差:2.7519e-06
GWO3:最大值: 7.5026e-05,最小值:2.3232e-09,平均值:6.9917e-06,标准差:1.8104e-05
函数:F3
GWO:最大值: 1.4964,最小值:0.23051,平均值:0.75543,标准差:0.3267
GWO1:最大值: 1.4448,最小值:0.00028516,平均值:0.54089,标准差:0.36223
GWO2:最大值: 1.2366,最小值:0.00020482,平均值:0.58279,标准差:0.36002
GWO3:最大值: 1.4113,最小值:0.0002904,平均值:0.73378,标准差:0.37876
函数:F4
GWO:最大值: 1.3944e-13,最小值:7.1942e-14,平均值:9.6101e-14,标准差:1.8356e-14
GWO1:最大值: 2.2204e-14,最小值:1.1546e-14,平均值:1.7941e-14,标准差:3.5714e-15
GWO2:最大值: 2.931e-14,最小值:1.5099e-14,平均值:2.256e-14,标准差:4.5962e-15
GWO3:最大值: 5.7732e-14,最小值:2.5757e-14,平均值:4.3521e-14,标准差:7.47e-15
函数:F5
GWO:最大值: 12.7089,最小值:5.6843e-14,平均值:3.0578,标准差:4.5506
GWO1:最大值: 1.1369e-13,最小值:0,平均值:8.5265e-15,标准差:2.7817e-14
GWO2:最大值: 5.6843e-14,最小值:0,平均值:1.9895e-14,标准差:2.7817e-14
GWO3:最大值: 6.5041e-09,最小值:0,平均值:3.2526e-10,标准差:1.4544e-09
函数:F6
GWO:最大值: 0.044778,最小值:0,平均值:0.0058958,标准差:0.011975
GWO1:最大值: 0.0099772,最小值:0,平均值:0.00094354,标准差:0.0029095
GWO2:最大值: 0.019834,最小值:0,平均值:0.0023399,标准差:0.0058445
GWO3:最大值: 0.01325,最小值:0,平均值:0.0012495,标准差:0.0038538

由此可见,本文提出的GWO1均优于GWO2、GWO3的改进灰狼优化算法。

三、参考文献

[1] Seyedali Mirjalili, Seyed Mohammad Mirjalili, Andrew Lewis. Grey Wolf Optimizer[J]. Advances in Engineering Software, 2014, 69: 46–61.
[2] 魏政磊, 赵辉, 李牧东, 等. 控制参数值非线性调整策略的灰狼优化算法[J]. 空军工程大学学报(自然科学版), 2016, 17(3): 68-72.
[3] 胡小平, 曹敬. 改进灰狼优化算法在WSN节点部署中的应用[J]. 传感技术学报, 2018, 31(5): 753-758.
[4] 张孟健, 龙道银, 杨小柳, 等. 基于非线性控制参数组合策略的灰狼优化算法[J]. 计算机应用与软件, 2021, 38(5): 250-255+322.

  • 5
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心️升明月

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值