算术优化与阿奎拉鹰优化的混合算法

该文介绍了阿奎拉鹰优化算法(AO)与算术优化算法(AOA)的混合算法AOAAO,通过改进逃逸能量参数增强全局探索能力。仿真实验对比了AOAAO与其他六种算法在解决23个测试函数中的性能,尤其是在F3、F4、F9、F10、F17和F21等函数上的表现,结果显示AOAAO在精度和收敛速度上具有显著优势。
摘要由CSDN通过智能技术生成

一、理论基础

1、阿奎拉鹰优化算法

请参考这里

2、算术优化算法

请参考这里

3、AO与AOA的混合(AOAAO)

(1)改进逃逸能量参数

逃逸能量改进为: E = 2 E 0 ( 1 − t T ) + ω max ⁡ − ( ω max ⁡ − ω min ⁡ ) t T x n (1) E=2E_0\left(1-\frac tT\right)+\omega_{\max}-(\omega_{\max}-\omega_{\min})\frac tTx_n\tag{1} E=2E0(1Tt)+ωmax(ωmaxωmin)Ttxn(1)其中, ω max ⁡ \omega_{\max} ωmax ω min ⁡ \omega_{\min} ωmin的值分别为0.9和0.5; x n x_n xn为分段线性映射的函数值,计算如下: x n = { x n − 1 1 − λ , 0 < x n − 1 < 1 − λ x n − 1 − ( 1 − λ ) λ ,   1 − λ ≤ x n − 1 < 1 (2) x_{n}=\begin{dcases}\frac{x_{n-1}}{1-\lambda},\quad\quad\quad\quad\quad0<x_{n-1}<1-\lambda\\[2ex]\frac{x_{n-1}-(1-\lambda)}{\lambda},\quad\, 1-\lambda\leq x_{n-1}<1\end{dcases}\tag{2} xn= 1λxn1,0<xn1<1λλxn1(1λ),1λxn1<1(2)其中, λ = 0.6 \lambda=0.6 λ=0.6
改进的参数 E E E将增加波动性,使更多的个体能够在迭代后期进行全局探索,如图1所示。
在这里插入图片描述

图1 HHO与AOAAO逃逸能量参数的迭代对比图

(2)AOAAO算法伪代码

AOAAO算法的伪代码如图2所示。
在这里插入图片描述

图2 AOAAO算法伪代码

二、仿真实验与结果分析

将AOAAO与AOA、AO、HHO、SSA、WOA和ChOA进行对比,以常用23个测试函数中的F3、F4(单峰函数/30维)、F9、F10(多峰函数/30维)、F17、F21(固定维度多峰函数/2维、4维)为例,实验设置种群规模为30,最大迭代次数为1000,每种算法独立运算30次,结果显示如下:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F3
AOAAO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
AOA:最差值: 0.040744, 最优值: 5.8497e-196, 平均值: 0.0055613, 标准差: 0.010239, 秩和检验: 1.2118e-12
AO:最差值: 3.1518e-198, 最优值: 5.3515e-299, 平均值: 1.4979e-199, 标准差: 0, 秩和检验: 1.2118e-12
HHO:最差值: 8.6161e-143, 最优值: 3.1606e-185, 平均值: 2.872e-144, 标准差: 1.5731e-143, 秩和检验: 1.2118e-12
SSA:最差值: 823.9739, 最优值: 52.2683, 平均值: 318.5652, 标准差: 191.6395, 秩和检验: 1.2118e-12
WOA:最差值: 32430.1532, 最优值: 1519.1597, 平均值: 18481.2238, 标准差: 8210.5705, 秩和检验: 1.2118e-12
ChOA:最差值: 49.8386, 最优值: 2.8714e-05, 平均值: 4.2998, 标准差: 12.2934, 秩和检验: 1.2118e-12
函数:F4
AOAAO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
AOA:最差值: 0.051534, 最优值: 4.5635e-134, 平均值: 0.016517, 标准差: 0.020497, 秩和检验: 1.2118e-12
AO:最差值: 2.205e-100, 最优值: 5.016e-152, 平均值: 9.2045e-102, 标准差: 4.0368e-101, 秩和检验: 1.2118e-12
HHO:最差值: 7.1965e-92, 最优值: 3.87e-105, 平均值: 3.0809e-93, 标准差: 1.3456e-92, 秩和检验: 1.2118e-12
SSA:最差值: 17.527, 最优值: 2.079, 平均值: 8.1323, 标准差: 4.2167, 秩和检验: 1.2118e-12
WOA:最差值: 91.3573, 最优值: 0.0005521, 平均值: 38.7973, 标准差: 29.7929, 秩和检验: 1.2118e-12
ChOA:最差值: 0.0094412, 最优值: 4.3113e-05, 平均值: 0.0021634, 标准差: 0.0027022, 秩和检验: 1.2118e-12
函数:F9
AOAAO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
AOA:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
AO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
HHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
SSA:最差值: 114.4199, 最优值: 28.8538, 平均值: 63.6441, 标准差: 20.4582, 秩和检验: 1.2118e-12
WOA:最差值: 5.6843e-14, 最优值: 0, 平均值: 1.8948e-15, 标准差: 1.0378e-14, 秩和检验: 0.33371
ChOA:最差值: 20.1143, 最优值: 7.3896e-13, 平均值: 4.0857, 标准差: 4.7845, 秩和检验: 1.2118e-12
函数:F10
AOAAO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
AOA:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
AO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
HHO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
SSA:最差值: 3.4616, 最优值: 1.3404, 平均值: 2.4279, 标准差: 0.64679, 秩和检验: 1.2118e-12
WOA:最差值: 7.9936e-15, 最优值: 8.8818e-16, 平均值: 3.9672e-15, 标准差: 2.234e-15, 秩和检验: 9.1593e-09
ChOA:最差值: 19.9637, 最优值: 19.9595, 平均值: 19.9619, 标准差: 0.0012474, 秩和检验: 1.2118e-12
函数:F17
AOAAO:最差值: 0.50396, 最优值: 0.39805, 平均值: 0.40968, 标准差: 0.022752, 秩和检验: 1
AOA:最差值: 0.43221, 最优值: 0.39817, 平均值: 0.40516, 标准差: 0.0073994, 秩和检验: 0.19073
AO:最差值: 0.39791, 最优值: 0.39789, 平均值: 0.39789, 标准差: 4.2354e-06, 秩和检验: 3.0199e-11
HHO:最差值: 0.39789, 最优值: 0.39789, 平均值: 0.39789, 标准差: 2.5961e-07, 秩和检验: 3.018e-11
SSA:最差值: 0.39789, 最优值: 0.39789, 平均值: 0.39789, 标准差: 1.0271e-14, 秩和检验: 2.8502e-11
WOA:最差值: 0.39789, 最优值: 0.39789, 平均值: 0.39789, 标准差: 5.3285e-07, 秩和检验: 3.0199e-11
ChOA:最差值: 5.0401, 最优值: 0.39789, 平均值: 0.55319, 标准差: 0.84744, 秩和检验: 2.959e-05
函数:F21
AOAAO:最差值: -9.9616, 最优值: -10.1532, 平均值: -10.1361, 标准差: 0.036912, 秩和检验: 1
AOA:最差值: -1.7961, 最优值: -9.3387, 平均值: -4.044, 标准差: 1.8501, 秩和检验: 3.0199e-11
AO:最差值: -10.1506, 最优值: -10.1532, 平均值: -10.1526, 标准差: 0.00066524, 秩和检验: 4.3531e-05
HHO:最差值: -5.0551, 最优值: -10.1532, 平均值: -5.2251, 标准差: 0.93076, 秩和检验: 5.0723e-10
SSA:最差值: -2.6305, 最优值: -10.1532, 平均值: -7.9757, 标准差: 3.208, 秩和检验: 0.027086
WOA:最差值: -5.0551, 最优值: -10.153, 平均值: -9.1156, 标准差: 2.0662, 秩和检验: 0.8883
ChOA:最差值: -0.49729, 最优值: -5.0398, 平均值: -2.9173, 标准差: 2.125, 秩和检验: 3.0199e-11

实验结果表明:AOAAO算法具有更好的全局探索和局部开发能力,在求解精度和收敛速度方面优于其他比较算法。

三、参考文献

[1] Y. -J. Zhang, Y. -X. Yan, J. Zhao, et al. AOAAO: The Hybrid Algorithm of Arithmetic Optimization Algorithm With Aquila Optimizer[J]. IEEE Access, 2022, 10: 10907-10933.

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
matlab优化程序包括:无约束一维极值问题、进退法、黄金分割法、斐波那契法、牛顿法基本牛顿法、全局牛顿法、割线法、抛物线法、三次插值法、可接受搜索法、Goidstein法、Wolfe Powell法、单纯形搜索法、Powell法、最速下降法、共轭梯度法、牛顿法、修正牛顿法、拟牛顿法、信赖域法、显式最速下降法、Rosen梯度投影法、罚函数法、外点罚函数法、內点罚函数法、混合罚函数法、乘子法、G-N法、修正G-N法、L-M法、线性规划、单纯形法、修正单纯形法、大M法、变量有界单纯形法、整数规划、割平面法、分支定界法、0-1规划、二次规划、拉格朗曰法、起作用集算法、路径跟踪法、粒子群优化算法、基本粒子群算法、带压缩因子的粒子群算法、权重改进的粒子群算法、线性递减权重法、自适应权重法、随机权重法、变学习因子的粒子群算法、同步变化的学习因子、异步变化的学习因子、二阶粒子群算法、二阶振荡粒子群算法 (matlab optimization process includes Non-binding one-dimensional extremum problems Advance and retreat method Golden Section Fibonacci method of basic Newton s method Newton s method Newton s Law of the global secant method parabola method acceptable to the three interpolation search method Goidstein France Wolfe.Powell France Simplex search method Powell steepest descent method Conjugate gradient method Newton s method Newton s method to amend Quasi-Newton Method trust region method explicitly steepest descent method, Rosen gradient projection method Penalty function method outside the penalty function method within the penalty function method Mixed penalty function multiplier method G-N was amended in G-N method L-M method Of linear programming simplex method, revised simplex method Big M method variables bounded simplex method, Cutting Plane Method integer programming branch and bound method 0-1 programming quadratic programming )
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心️升明月

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值