基于随机无迹σ变异的改进HHO算法

一、理论基础

1、哈里斯鹰优化算法HHO

请参考这里

2、改进哈里斯鹰优化算法OSHHO

(1)伪对立和伪反射学习机制

请参考这里

(2)随机无迹点变异机制

请参考这里

(3)能量因子非线性调整机制

由HHO算法执行过程可知,逃逸能量因子 E E E决定了HHO算法的全局搜索到局部开采之间的切换,是衡量HHO算法寻优能力的重要指标。当 ∣ E ∣ ≥ 0.5 |E|\geq0.5 E0.5时,哈里斯硬个体进行软包围(渐近快速俯冲式软包围),种群将扩大搜索范围,对应于算法的全局搜索阶段;当 ∣ E ∣ < 0.5 |E|<0.5 E<0.5时,哈里斯硬个体进行硬包围(渐近快速俯冲式硬包围),种群将缩小搜索范围,对应于算法的局部开发阶段。然而, E E E值在迭代过程中是线性单周期递减的,这并不符合哈里斯鹰种群需要多轮次协同围捕猎物的自然规律,即:线性递减的 E E E值会使得每次迭代中的能量变化 Δ X ( t ) \Delta X(t) ΔX(t)是常值。为此,OSHHO算法引入一种针对能量因子的非线性周期性调整策略,描述哈里斯鹰围捕猎物的过程。具体地,在因子 E E E的更新公式中以对数函数描述非线性周期性,具体定义为: E = 2 E 0 [ 1 − ln ⁡ ( 1 + t T max ⁡ ( e − 1 ) 3 ) ] (1) E=2E_0\left[1-\ln\left(1+\frac{t}{T_{\max}}(e-1)^3\right)\right]\tag{1} E=2E0[1ln(1+Tmaxt(e1)3)](1)其中, t t t为当前迭代次数, T max ⁡ T_{\max} Tmax为最大迭代次数, e e e为自然常量, E 0 E_0 E0为猎物的初始能量。根据式(1),迭代早期, E E E的衰减速度较慢,迭代后期, E E E的衰减速度变快。如此,迭代早期,OSHHO算法的种群能够进行更加充分的全局搜索,最大限度地提升种群多样性;迭代后期,OSHHO算法能够更快的收敛,从而更均衡的实现迭代早期全局搜索与迭代后期局部开发间的稳定切换,进一步提高算法的寻优精度和收敛速度。

(4)OSHHO算法执行流程

OSHHO算法的执行流程如图1所示。
在这里插入图片描述

图1 OSHHO算法执行流程图

二、仿真实验与结果分析

将OSHHO与IHHO[2]、GWO、TSA、WOA和HHO进行对比,以文献[1]中表1的30维的8个测试函数为例,实验设置种群规模为30,最大迭代次数为500,每种算法独立运算30次,结果显示如下:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F1
OSHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
IHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
GWO:最差值: 1.3966e-26, 最优值: 3.6424e-29, 平均值: 1.163e-27, 标准差: 2.5692e-27, 秩和检验: 1.2118e-12
TSA:最差值: 4.3663e-194, 最优值: 4.6655e-205, 平均值: 2.9914e-195, 标准差: 0, 秩和检验: 1.2118e-12
WOA:最差值: 6.3927e-72, 最优值: 5.1821e-85, 平均值: 2.7224e-73, 标准差: 1.1833e-72, 秩和检验: 1.2118e-12
HHO:最差值: 1.2782e-95, 最优值: 3.6329e-112, 平均值: 4.3831e-97, 标准差: 2.3323e-96, 秩和检验: 1.2118e-12
函数:F2
OSHHO:最差值: 0.00019046, 最优值: 5.7801e-07, 平均值: 5.6283e-05, 标准差: 5.3552e-05, 秩和检验: 1
IHHO:最差值: 0.00040369, 最优值: 6.6214e-07, 平均值: 7.348e-05, 标准差: 9.1141e-05, 秩和检验: 0.7394
GWO:最差值: 0.0037857, 最优值: 0.00014689, 平均值: 0.0018502, 标准差: 0.00094448, 秩和检验: 4.0772e-11
TSA:最差值: 0.00023859, 最优值: 8.7939e-06, 平均值: 8.5249e-05, 标准差: 6.557e-05, 秩和检验: 0.055546
WOA:最差值: 0.014856, 最优值: 7.5033e-05, 平均值: 0.0040959, 标准差: 0.0045774, 秩和检验: 1.0937e-10
HHO:最差值: 0.0011288, 最优值: 9.1168e-06, 平均值: 0.00023525, 标准差: 0.00028567, 秩和检验: 7.6588e-05
函数:F3
OSHHO:最差值: 0.062661, 最优值: 3.2422e-06, 平均值: 0.0093814, 标准差: 0.014012, 秩和检验: 1
IHHO:最差值: 0.046401, 最优值: 4.2975e-06, 平均值: 0.0070632, 标准差: 0.011244, 秩和检验: 0.52014
GWO:最差值: 28.5809, 最优值: 25.7334, 平均值: 26.9468, 标准差: 0.76787, 秩和检验: 3.0199e-11
TSA:最差值: 28.9116, 最优值: 28.0662, 平均值: 28.6196, 标准差: 0.3358, 秩和检验: 3.0199e-11
WOA:最差值: 28.7561, 最优值: 27.3589, 平均值: 28.0649, 标准差: 0.45678, 秩和检验: 3.0199e-11
HHO:最差值: 0.057463, 最优值: 1.6136e-06, 平均值: 0.0083767, 标准差: 0.011771, 秩和检验: 0.71719
函数:F4
OSHHO:最差值: 0.00050253, 最优值: 1.5658e-08, 平均值: 6.8166e-05, 标准差: 0.0001204, 秩和检验: 1
IHHO:最差值: 0.00065811, 最优值: 2.2189e-07, 平均值: 8.3072e-05, 标准差: 0.00013267, 秩和检验: 0.39527
GWO:最差值: 1.2647, 最优值: 7.8846e-05, 平均值: 0.63389, 标准差: 0.37692, 秩和检验: 8.9934e-11
TSA:最差值: 7.25, 最优值: 4.6573, 平均值: 6.0257, 标准差: 0.79353, 秩和检验: 3.0199e-11
WOA:最差值: 1.1165, 最优值: 0.072802, 平均值: 0.41659, 标准差: 0.24425, 秩和检验: 3.0199e-11
HHO:最差值: 0.00072027, 最优值: 5.2843e-09, 平均值: 0.00011791, 标准差: 0.00016972, 秩和检验: 0.08771
函数:F5
OSHHO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
IHHO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
GWO:最差值: 2.0695e-13, 最优值: 6.839e-14, 平均值: 1.0557e-13, 标准差: 2.4926e-14, 秩和检验: 1.1471e-12
TSA:最差值: 7.9936e-15, 最优值: 4.4409e-15, 平均值: 4.5593e-15, 标准差: 6.4863e-16, 秩和检验: 2.7085e-14
WOA:最差值: 7.9936e-15, 最优值: 8.8818e-16, 平均值: 4.9146e-15, 标准差: 2.421e-15, 秩和检验: 3.5728e-10
HHO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
函数:F6
OSHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
IHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
GWO:最差值: 14.7786, 最优值: 5.6843e-14, 平均值: 3.2934, 标准差: 4.0014, 秩和检验: 1.1805e-12
TSA:最差值: 130.3738, 最优值: 0, 平均值: 16.6898, 标准差: 36.1685, 秩和检验: 5.8522e-09
WOA:最差值: 165.1235, 最优值: 0, 平均值: 5.5041, 标准差: 30.1473, 秩和检验: 0.33371
HHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
函数:F7
OSHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
IHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
GWO:最差值: 0.028895, 最优值: 0, 平均值: 0.0022484, 标准差: 0.0064184, 秩和检验: 0.021577
TSA:最差值: 0.016504, 最优值: 0, 平均值: 0.0020356, 标准差: 0.004863, 秩和检验: 0.021577
WOA:最差值: 0.20853, 最优值: 0, 平均值: 0.0131, 标准差: 0.049952, 秩和检验: 0.1608
HHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
函数:F8
OSHHO:最差值: 5.9785e-294, 最优值: 1.5514e-313, 平均值: 2.0287e-295, 标准差: 0, 秩和检验: 1
IHHO:最差值: 9.0414e-322, 最优值: 0, 平均值: 5.9288e-323, 标准差: 0, 秩和检验: 2.3657e-12
GWO:最差值: 2.7216e-16, 最优值: 2.4556e-17, 平均值: 8.2107e-17, 标准差: 5.4422e-17, 秩和检验: 3.0199e-11
TSA:最差值: 7.2592e-100, 最优值: 6.5828e-105, 平均值: 8.9732e-101, 标准差: 2.0359e-100, 秩和检验: 3.0199e-11
WOA:最差值: 1.2424e-49, 最优值: 3.5673e-59, 平均值: 5.3318e-51, 标准差: 2.3206e-50, 秩和检验: 3.0199e-11
HHO:最差值: 2.7291e-48, 最优值: 2.5873e-60, 平均值: 9.1126e-50, 标准差: 4.9823e-49, 秩和检验: 3.0199e-11

实验结果表明:OSHHO算法有效地改善了HHO算法的寻优效率、全局搜索与局部开发能力的均衡以及全局搜索能力。

三、参考文献

[1] 陈强, 李康顺. 基于随机无迹σ变异的改进HHO算法及应用[J]. 计算机应用研究, 2022, 39(9): 1-9.
[2] Wenyan Guo, Peng Xu, Fang Dai, et al. Improved Harris hawks optimization algorithm based on random unscented sigma point mutation strategy[J]. Applied Soft Computing, 2021, 113: 108012.

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心️升明月

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值