【论文复现|智能算法改进】基于多策略融合灰狼算法的移动机器人路径规划


1.算法原理

【智能算法】灰狼算法(GWO)原理及实现

2.改进点

混沌反向学习策略

融合Logistic混沌映射和Tent混沌映射生成Logistic-Tent复合混沌映射:
Z i + 1 = { ( r Z i ( 1 − Z i ) + ( 4 − r ) Z i / 2 ) m o d 1 , Z i < 0.5 ( r Z i ( 1 − Z i ) + ( 4 − r ) ( 1 − Z i ) / 2 ) m o d 1 , Z i ⩾ 0.5 (1) Z_{i+1}=\begin{cases}(rZ_i(1-Z_i)+(4-r)Z_i/2) \mathrm{mod}1,Z_i<0.5\\(rZ_i(1-Z_i)+(4-r)(1-Z_i)/2) \mathrm{mod}1,Z_i\geqslant0.5\end{cases}\tag{1} Zi+1={(rZi(1Zi)+(4r)Zi/2)mod1,Zi<0.5(rZi(1Zi)+(4r)(1Zi)/2)mod1,Zi0.5(1)
为了加快种群收敛速度,采用精英反向学习策略使得生成的初始种群偏向全局最优解:
X n ∗ = r a n d ∗ ( u b + l b ) − X n (2) X_n^*=rand*(ub+lb)-X_n\tag{2} Xn=rand(ub+lb)Xn(2)

控制参数调整

引入Sigmoid函数,修改收敛因子a,论文采用a1:
a 1 ( i ) = a  initial − a  initial − a  final 1 + e − 10 ( i I max ⁡ − 1 2 ) a 2 ( i ) = 2 − 2 i I max ⁡ a 3 ( i ) = a  initial − a  initial 1 e − 1 ( e i I max ⁡ − 1 ) a 4 ( i ) = 2 − 2 sin ⁡ ( λ i I max ⁡ π + ϕ ) (3) \begin{aligned}a_1\left(i\right)=&a_\text{ initial}-\frac{a_\text{ initial}-a_\text{ final}}{1+e^{-10(\frac i{I_{\max}}-\frac12)}}\\a_2\left(i\right)=&2-\frac{2i}{I_{\max}}\\a_3\left(i\right)=&a_\text{ initial}-a_\text{ initial}\frac1{e-1}(e^{\frac i{I_{\max}}}-1)\\a_4\left(i\right)=&2-2\sin(\lambda \frac i{I_{\max}}\pi+\phi )\end{aligned}\tag{3} a1(i)=a2(i)=a3(i)=a4(i)=a initial1+e10(Imaxi21)a initiala final2Imax2ia initiala initiale11(eImaxi1)22sin(λImaxiπ+ϕ)(3)

在这里插入图片描述
控制参数C1取值影响算法的寻优能力,当C1>1算法具有较强的局部开发能力;当C1<=1有利于增强算法全局探索能力:
C 1 ( i ) = 2 η − a 1 ( i ) (4) C_1(i)=2\eta-a_1(i)\tag{4} C1(i)=2ηa1(i)(4)

在这里插入图片描述
位置更新与种群淘汰策略

采用基于适应度值的比例权重更新灰狼位置:
X ( i + 1 ) = ∑ j = α , β , δ ω j X j ( i ) (5) X\left(i+1\right)=\sum_{j=\alpha,\beta,\delta}\omega_jX_j\left(i\right)\tag{5} X(i+1)=j=α,β,δωjXj(i)(5)
权重系数表述为:
w j = f i t ( X j ( i ) ) f i t ( X α ( i ) ) + f i t ( X β ( i ) ) + f i t ( X δ ( i ) ) (6) w_j=\frac{\mathrm{fit}(X_j(i))}{\mathrm{fit}(X_\alpha(i))+\mathrm{fit}(X_\beta(i))+\mathrm{fit}(X_\delta(i))}\tag{6} wj=fit(Xα(i))+fit(Xβ(i))+fit(Xδ(i))fit(Xj(i))(6)

每次迭代后选择适应度最差的G匹狼进行淘汰,通过Logistic-Tent复合混沌映射生成新的狼以替代被淘汰的狼。种群淘汰机制可以剔除适应度最差的狼,但是无法保证生成的新狼适应度值一定优于原来的解。因此将种群淘汰机制与贪心策略相结合贪心策略使用适者生存的原则,使得新生成狼的适应度值必定优于原来的适应度值$:
M i + 1 = M i ′ , f i t ( M i ′ ) < f i t ( M i ) (7) M_{i+1}=M^{\prime}_i,\mathrm{fit}(M^{\prime}_i)<\mathrm{fit}(M_i)\tag{7} Mi+1=Mi,fit(Mi)<fit(Mi)(7)

3.结果展示

CEC2005
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二维栅格路径规划

在这里插入图片描述
在这里插入图片描述

4.参考文献

[1] 黄琦,陈海洋,刘妍,等.基于多策略融合灰狼算法的移动机器人路径规划[J].空军工程大学学报,2024,25(03):112-120.

5.代码获取

  • 12
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小O的算法实验室

谢谢大佬的肯定!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值