【群智能算法】一种改进的樽海鞘算法ISSA【Matlab代码#3】


获取资源请见文章第5节:资源获取】


1. 基础樽海鞘算法

樽海鞘算法是是根据海洋里樽海鞘链觅食的群体行为演化而来的一种群智能算法,在樽海鞘链中,分为领导者和追随者,领导者朝着食物移动并且指导着紧随其后的追随者移动。

1.1 种群初始化

樽海鞘算法中种群由维度为d的N个樽海鞘组成,即:
在这里插入图片描述
其中,ub和lb为搜索空间的上下限。

1.2 领导者位置更新

在樽海鞘算法中,食物源的位置是所有樽海鞘个体的目标位置,即搜索过程中的全局最优解,影响着领导者位置更新,领导者的位置更新公式为:
在这里插入图片描述
其中,xij是第i只樽海鞘在第j维的位置,Fj是食物源在第j维的位置,ubj和lbj分别表示第j维取值的上下限,c2和c3是均匀分布于0-1的随机数,c1与当前迭代次数有关。

1.3 追随者位置更新

第i只樽海鞘的位置只与它本身和第i-1只樽海鞘有关,公式如下:
在这里插入图片描述

2. 改进的樽海鞘算法

2.1 改进Tent映射的种群初始化

Tent映射的表达式为:
在这里插入图片描述
但是,分析Tent混沌迭代序列,能发现序列中饭存在小周期点和固定点。为使得Tent映射在达到小周期点或者固定点时再次进入混沌状态,可以在Tent映射表达式中加入一个随机变量 ,改进后的Tent映射的数学表达式为:
在这里插入图片描述

2.2 领导者位置更新改进策略

标准SSA在领导者位置更新阶段,个体在食物源附近移动,搜索范围不受限制,使得收敛后期个体不能在极值点进行精确搜索,甚至可能会跳出极值点。另外,领导者仅仅根据食物源做出自身位置的改变,一旦食物源位置陷入局部最优,则容易导致群体出现搜索停止,为了改善此问题,引入自适应权重因子和Levy飞行策略进行领导者位置的更新。

(1)自适应权重因子
针对SSA在领导者更新阶段搜索范围不受限的问题,给食物源添加自适应权重因子,使得食物源对领导者的影响随着迭代次数的增加而逐渐减小,收敛前期避免陷入局部极值,收敛后期越来越逼近最优值,达到更高的求解精度。
在这里插入图片描述
其中,wmax和wmin分别为0.9和0.4,小l和大L分别为当前迭代次数和总迭代次数。更迭开始阶段,较大的惯性权重是算法保持较好的探索能力,而后期较小的惯性权重有助于算法具有较好的开发能力。

(2)Levy飞行扰动策略
针对SSA算法容易陷入局部最优的问题,引入了Levy飞行扰动策略,使得算法能够在长短距离之间随机变化,最大限度地实现搜索域的多样化,增强了全局最优搜索能力。
加入了Levy飞行的领导者位置更新公式为:
在这里插入图片描述
其中,w为自适应权重因子,s为Levy运动步长,由特定公式生成。

2.3 追随者位置更新改进策略

标准SSA算法在追随者位置更新阶段,第 只樽海鞘个体会根据第 只和第 只樽海鞘位置进行更新操作,只依赖于先前的个体,缺乏与其他个体的学习交互,若先前的追随者位置是局部最优解,则算法容易陷入局部最优,出现停滞。另外,按照标准SSA算法更新后的追随者个体不论适应值好坏都取代原个体,具有盲目性。
为了克服这些缺点,在追随者位置更新阶段加入了非均匀高斯变异算子和贪婪选择策略。

(1)非均匀高斯变异算子
针对SSA算法追随者位置更新时,只依赖于先前的个体,缺少其他个体信息的不足,在原先追随者位置更新公式的基础上添加了非均匀高斯变异算子:
在这里插入图片描述
非均匀高斯变异算子的引入将食物源与当前个体位置之差进行高斯分布后,再自适应地调整变异步长,该方式既能保证追随者个体有足够的活力,又可以充分地利用食物源的信息,从而提高了搜索的精度,同时也避免个体陷入局部最优。

(2)贪婪选择
由于不能保证加入非均匀高斯变异算子后的追随者位置优于原先的位置,所以本文采用贪婪选择策略决定是否更新追随者的位置,即新位置的适应度值若优于原位置的适应度值则保留,否则舍弃,公式如下:
在这里插入图片描述

3. 部分代码展示

%非均匀高斯变异策略
 SalpPositions1 = SalpPositions(:,i);
 for j=1:1:dim
    c7=rand();
    GD=...; 
    SalpPositions(j,i) = 0.5*(SalpPositions(j,i)+SalpPositions(j,i-1))+GD*(1-c7^((1-(l/Max_iter))^2));               
 end
 SalpPositions2 = SalpPositions(:,i);
 SalpPositions1=SalpPositions1';
 SalpPositions2=SalpPositions2';
 SalpPositions1Fitness=fobj(SalpPositions1);
 SalpPositions2Fitness=fobj(SalpPositions2);
 
%贪婪选择,新位置的适应度值若优于原位置则保留,否则舍弃
 if SalpPositions1Fitness<=SalpPositions2Fitness
     SalpPositions(:,i) = SalpPositions1';
 else
     SalpPositions(:,i) = SalpPositions2';
 end

4. 结果展示

在这里插入图片描述
在这里插入图片描述

The best optimal value of the objective funciton found by SSA is \n 9.8634e-08
The best optimal value of the objective funciton found by ISSA is \n 4.7405e-23

5. 资源获取

可以获取完整代码资源。

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

天`南

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值