SCI一区TOP|双曲正弦余弦优化算法(SCHO)原理及实现【免费获取Matlab代码】


1.背景

2023年,J Bai受到双曲正弦余弦函数启发,提出了双曲正弦余弦优化算法(Sinh Cosh optimizer, SCHO)。

在这里插入图片描述
在这里插入图片描述

2.算法原理

2.1算法思想

SCHO灵感来源于Sinh函数和Cosh函数特性,其包括四个步骤:探索和开发阶段、有界搜索策略和切换机制

2.2算法过程

探索阶段

探索阶段和开发阶段平衡基于:
T = f l o o r ( M a x _ i t e r a t i o n c t ) (1) T=floor\left(\frac{Max\_iteration}{ct}\right)\tag{1} T=floor(ctMax_iteration)(1)

在这里插入图片描述
探索位置更新:
X ( i , j ) t + 1 = { X b e s t ( j ) + r 1 × W 1 × X ( i , j ) i , r 2 > 0.5 X b e s t ( j ) − r 1 × W 1 × X ( i , j ) i , r 2 < 0.5 (2) \left.X_{(i,j)}^{t+1}=\left\{\begin{array}{ll}X_{best}^{(j)}+r_1\times W_1\times X_{(i,j)}^i, r_2>0.5\\X_{best}^{(j)}-r_1\times W_1\times X_{(i,j)}^i, r_2<0.5\end{array}\right.\right.\tag{2} X(i,j)t+1={Xbest(j)+r1×W1×X(i,j)i,r2>0.5Xbest(j)r1×W1×X(i,j)i,r2<0.5(2)
W1为第一探索阶段Xt (i,j)的权重系数,控制第一阶段候选解远离自身,逐步向最优解探索:
W 1 = r 3 × a 1 × ( cosh ⁡ r 4 + u × sinh ⁡ r 4 − 1 ) (3) W_1=r_3\times a_1\times(\cosh r_4+u\times\sinh r_4-1)\tag{3} W1=r3×a1×(coshr4+u×sinhr41)(3)
U是控制探索精度的敏感系数,参数a1:
a 1 = 3 × ( − 1.3 × t Max_iteration + m ) (4) a_1=3 \times\left(-1.3\times\frac{t}{\text{Max\_iteration}}+ m\right)\tag{4} a1=3×(1.3×Max_iterationt+m)(4)
在第二阶段的探索中,搜索个体几乎不受最优解的影响,因此它们在当前位置的基础上非定向地探索下一个位置:
X ( i j ) t + 1 = { X ( i , j ) t + ∣ ε × W 2 × X b e s t ( j ) − X ( i , j ) t ∣ , r 5 > 0.5 X ( i , j ) t − ∣ ε × W 2 × X b e s t ( j ) − X ( i , j ) t ∣ r 5 < 0.5 (5) \left.X_{(ij)}^{t+1}=\left\{\begin{array}{ll}X_{(i,j)}^t+\Big|\varepsilon\times W_2\times X_{best}^{(j)}-X_{(i,j)}^t\Big|, r_5>0.5\\X_{(i,j)}^t-\Big|\varepsilon\times W_2\times X_{best}^{(j)}-X_{(i,j)}^t\Big| r_5<0.5\end{array}\right.\right.\tag{5} X(ij)t+1= X(i,j)t+ ε×W2×Xbest(j)X(i,j)t ,r5>0.5X(i,j)t ε×W2×Xbest(j)X(i,j)t r5<0.5(5)
W2是第二阶段探索中X(j)最优的权重系数:
W 2 = r 6 × a 2 (6) W_2=r_6\times a_2\tag{6} W2=r6×a2(6)
a2是单调递减函数:
a 2 = 2 × ( − t M a x _ i t e r a t i o n + n ) (7) a_2=2 \times\left( -\frac{t}{Max\_iteration}+n\right)\tag{7} a2=2×(Max_iterationt+n)(7)

开发阶段

为了充分利用搜索空间,将开发分为两个阶段,并在整个迭代中进行。在第一个开发阶段,对X的附近空间进行开发:
X ( i , j ) t + 1 = { X b e s t ( j ) + r 7 × W 3 × X ( i , j ) t , r 8 > 0.5 X b e s t ( j ) − r 7 × W 3 × X ( i , j ) t , r 8 < 0.5 (8) X_{(i,j)}^{t+1}=\begin{cases} X_{best}^{(j)}+r_{7}\times W_{3}\times X_{(i,j)}^{t}, r_{8}>0.5\\ X_{best}^{(j)}-r_{7}\times W_{3}\times X_{(i,j)}^{t}, r_{8}<0.5\end{cases}\tag{8} X(i,j)t+1={Xbest(j)+r7×W3×X(i,j)t,r8>0.5Xbest(j)r7×W3×X(i,j)t,r8<0.5(8)
W3是第一阶段开发的权重系数,控制候选解从近到远地开发自身周围的搜索空间:
W 3 = r 9 × a 1 × ( cosh ⁡ r 10 + u × sinh ⁡ r 10 ) (9) W_3=r_9\times a_1\times(\cosh r_{10}+u\times\sinh r_{10})\tag{9} W3=r9×a1×(coshr10+u×sinhr10)(9)
在开发的第二阶段,将执行候选解决方案围绕所获得的最优解进行深度开发,并且围绕最优解的开发强度将随着迭代的增加而增加:
X ( i , j ) t + 1 = X ( i , j ) t + r 11 × sinh ⁡ r 12 c o s h r 12 ∣ W 2 × X b e s t ( j ) − X ( i , j ) t ∣ (10) X_{(i,j)}^{t+1}=X_{(i,j)}^{t}+r_{11}\times\frac{\sinh r_{12}}{coshr_{12}}\left|W_{2}\times X_{best}^{(j)}-X_{(i,j)}^{t}\right|\tag{10} X(i,j)t+1=X(i,j)t+r11×coshr12sinhr12 W2×Xbest(j)X(i,j)t (10)
W2控制第二开采阶段的程度。其绝对值在以后的迭代中逐渐增大,开发程度也随之增大。

有界搜索策略

为了充分利用潜在的搜索空间,SCHO在后期采用了一种类似于动物狩猎的策略,称为有界搜索策略。该策略的每一个起始点由下式计算:
B S k + 1 = B S k + f l o o r ( M a x _ i t e r a t i o n − B S k α ) (11) BS_{k+1}=BS_k+floor\Bigg(\frac{Max\_iteration-BS_k}{\alpha}\Bigg)\tag{11} BSk+1=BSk+floor(αMax_iterationBSk)(11)
α为控制潜力空间深部勘探开发精度的敏感系数,BS1表述为:
B S 1 = f l o o r ( M a x _ i t e r a t i o n β ) (12) BS_1=floor\left(\frac{Max\_iteration}{\beta}\right)\tag{12} BS1=floor(βMax_iteration)(12)
其中β控制启动有界搜索策略的值,并设置为1.55。当SCHO每次都使用有界搜索策略时,上下界设置为:
u b k = X b e s t ( j ) + ( 1 − t M a x − i t e r a t i o n ) × ∣ X b e s t ( j ) − X s e c o n d ( j ) ∣ l b k = X b e s t ( j ) − ( 1 − t M a x _ i t e r a t i o n ) × ∣ X b e s t ( j ) − X s e c o n d ( j ) ∣ (13) ub_k=X_{best}^{(j)}+\left(1-\frac{t}{Max_-iteration}\right)\times\left|X_{best}^{(j)}-X_{second}^{(j)}\right|\\ lb_k=X_{best}^{(j)}-\left(1-\frac{t}{Max\_iteration}\right)\times\left|X_{best}^{(j)}-X_{second}^{(j)}\right|\tag{13} ubk=Xbest(j)+(1Maxiterationt)× Xbest(j)Xsecond(j) lbk=Xbest(j)(1Max_iterationt)× Xbest(j)Xsecond(j) (13)

切换机制

在SCHO中,提出了一种带有Sinh和Cosh的转换机制,实现了勘探和开发之间的转换:
A = ( p − q × ( t M a x − i t e r a t i o n ) ( cosh ⁡ t M a x − i t r a t i o n sinh ⁡ t M a x − i t e r a t i o n ) ) × r 13 (14) A=\left(p-q\times\left(\frac{t}{Max_-iteration}\right)^{\left(\frac{\cosh\frac{t}{Max-itration}}{\sinh\frac{t}{Max-iteration}}\right)}\right)\times r_{13}\tag{14} A= pq×(Maxiterationt)(sinhMaxiterationtcoshMaxitrationt) ×r13(14)

流程图

在这里插入图片描述

伪代码

在这里插入图片描述

3.结果展示

在这里插入图片描述
在这里插入图片描述

4.参考文献

[1] Bai J, Li Y, Zheng M, et al. A sinh cosh optimizer[J]. Knowledge-Based Systems, 2023, 282: 111081.

5.代码获取

  • 27
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小O的算法实验室

谢谢大佬的肯定!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值