【智能算法】人工大猩猩部队优化算法(GTO)原理及实现

本文介绍了ArtificialGorillaTroopsOptimizer(GTO)算法,它模仿大猩猩的社会行为进行种群迁移和求偶过程,用于解决全局优化问题。算法分为探索阶段的三种迁移策略和开发阶段的银背大猩猩迁移或雄性大猩猩求偶行为。GTO通过参数C、L、H和随机变量控制搜索过程。
摘要由CSDN通过智能技术生成

在这里插入图片描述


1.背景

2021年,B Abdollahzadeh等人受到大猩猩社会行为启发,提出了人工大猩猩部队优化算法(Artificial Gorilla Troops Optimizer, GTO)。

2.算法原理

2.1算法思想

GTO模拟了大猩猩的种群迁移和求偶行为

  • 探索阶段:种群迁移包括已知位置、未知位置和同伴位置三种
  • 开发阶段:求偶行为模拟了雄性大猩猩争夺雌性的行为

在这里插入图片描述

2.2算法过程

探索阶段

GTO算法包括三种探索机制,对应大猩猩的三种迁移位置。当随机数小于概率阈值 p(0.03) 时,大猩猩向未知地点迁移;当随机数小于0.5时,大猩猩向已知地点迁移;当随机数大于或等于0.5时,大猩猩向同伴迁移。
G X ( t ) = { ( U B − L B ) × r 1 + L B , rand < p ( r 2 − C ) × X n ( t ) + L × H , rand < p X ( t ) − L × ( L × ( X ( t ) − G X n ( t ) ) + r 3 × ( X ( t ) − G X n ( t ) ) ) , rand < 0.5 (1) \mathrm{GX}(t)=\begin{cases}(\mathrm{UB-LB})\times r_1+\mathrm{LB},&\text{rand}<p\\(r_2-C) \times X_n(t)+L\times H,&\text{rand}<p\\X(t)-L\times(L\times(X(t)-\mathrm{GX}_n(t))+r_3\times(X(t)-\mathrm{GX}_n(t))),&\text{rand}<0.5\end{cases}\tag{1} GX(t)= (UBLB)×r1+LB,(r2C)×Xn(t)+L×H,X(t)L×(L×(X(t)GXn(t))+r3×(X(t)GXn(t))),rand<prand<prand<0.5(1)
Xr 表示上一代种群中任意大猩猩的最优位置,X 表示上一代大猩猩的最优位置,GX 表示当前大猩猩的位置,GXr表示当前种群中任意大猩猩的位置,t 表示大猩猩个体,参数 C、L、H表述为:
C = F × ( 1 − I t M a x I t ) L = C × l H = Z × X ( t ) F = cos ⁡ ( 2 × r 4 ) + 1 Z ∈ [ − C , C ] (2) \begin{gathered} C=F\times\left(1-\frac{\mathrm{It}}{\mathrm{Max}\mathrm{It}}\right) \\ L=C\times l \\ H=Z\times X(t) \\ F=\cos(2\times r_{4})+1 \\ Z \in [- C,C] \end{gathered}\tag{2} C=F×(1MaxItIt)L=C×lH=Z×X(t)F=cos(2×r4)+1Z[C,C](2)

开发阶段

当 C≥W 时,表示种群跟随银背大猩猩迁移:
G X ( t ) = L × M × ( X ( t ) − X b ) + X ( t ) M = ( ∣ 1 N ∑ i = 1 N G X i ( t ) ∣ g ) 1 g g = 2 L (3) \begin{aligned}\mathrm{GX}(t)&=L\times M\times(X(t)-X_b)+X(t)\\M&=\Big(\left.\left|\frac1N\sum_{i=1}^N\mathrm{GX}_i(t)\right|^g\right)^{\frac1g}\\g&=2^L\end{aligned}\tag{3} GX(t)Mg=L×M×(X(t)Xb)+X(t)=( N1i=1NGXi(t) g)g1=2L(3)
当 C<W 时,表示雄性大猩猩求偶行为:
G X ( t ) = X b − ( X b × Q − X ( t ) × Q ) × A (4) \mathrm{GX}(t)=X_b-(X_b\times Q-X(t)\times Q)\times A\tag{4} GX(t)=Xb(Xb×QX(t)×Q)×A(4)
参数 Q 用来模拟冲击力,参数 A 用来模拟暴力程度:
Q = 2 × r 5 − 1 A = β × E E = { r a n d n ( 1 , d ) , r a n d ⩾ 0.5 r a n d n ( 1 , 1 ) , r a n d < 0.5 (5) \begin{gathered} Q=2\times r_{5}-1 \\ A=\beta\times E \\ \left.E=\left\{\begin{matrix}{\mathrm{randn}(1,d),}&{\mathrm{rand}\geqslant0.5}\\{\mathrm{randn}(1,1),}&{\mathrm{rand}<0.5}\\\end{matrix}\right.\right. \end{gathered}\tag{5} Q=2×r51A=β×EE={randn(1,d),randn(1,1),rand0.5rand<0.5(5)

伪代码
在这里插入图片描述

3.结果展示

在这里插入图片描述

4.参考文献

[1] Abdollahzadeh B, Soleimanian Gharehchopogh F, Mirjalili S. Artificial gorilla troops optimizer: a new nature‐inspired metaheuristic algorithm for global optimization problems[J]. International Journal of Intelligent Systems, 2021, 36(10): 5887-5958.

  • 9
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小O的算法实验室

谢谢大佬的肯定!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值