改进的大猩猩部队算法(MGTO)优化长短期记忆神经网络原理及matlab代码

目录

 0 引言

1 数学模型

2 模型对比

3 matlab代码

3.1 伪代码

3.2 MGTO-LSTM

4 视频讲解

 0 引言

考虑到GTO算法的收敛精度不足和收敛速度较低,Jinhua You等人于2023年提出了三种创新策略提高GTO的综合性能。首先,引入收缩控制因子融合策略增强银背大猩猩与其他大猩猩之间的通信,扩大搜索空间提高全局优化性能。其次,基于接近性的正弦余弦交互融合策略,稳定银背大猩猩和其他大猩猩个体的性能,提高算法的收敛能力和速度。最后,通过大猩猩个体差异识别策略,减少大猩猩和银背大猩猩之间的差异。

1 数学模型

MGTO是在GTO基础上引入收缩控制因子的收敛策略、紧密度的正弦余弦相互作用融合策略和大猩猩个体差异的识别策略来提高GTO的综合性能,其各自数学模型如下:

1)收缩控制因子的收敛策略:引入收缩因子CAN来使使大猩猩能够探索更多的未知空间。具体的更新公式如下:

式(14)为收缩控制因子,式(15)为大猩猩在该阶段经验值,当U大于1时,进行式(16)和(17)模拟大猩猩探索未知位置的行为和大猩猩相互交换经验后的未知位置,减少GTO模拟探索的盲目性。当U小于1时,进行式(19)模拟当前大猩猩的解的位置移到随机个体的解,增强全局性。其中t为当前迭代,Maxlt为最大迭代次数,Fi为最优个体组,silverback为银背大猩猩,Mean为平均最优个体组解,dim为问题维度,D为均匀分布的区间[−|CAN|,−|CAN|]中生成的问题维数的随机向量。

2)紧密度的正弦余弦相互作用融合策略:由于GTO算法的随机性,大猩猩的个体位置的解是不同的。因此,为了提高原算法的利用能力,我们将这些单独的解分为好位置和坏位置,然后提高单独位置解的质量,因此,借用正余弦策略引入gamma系数表示大猩猩与银背大猩猩目前的关系进行下述活动。

Gamma参数计算:

当gamma>0表示大猩猩与银背大猩猩目前的关系接近稳定,说明大猩猩目前的位置相对较好,因此对周边区域进行全面搜索进行模型式(24)和(25)的策略更新子;否则,表示二者关系很冷淡。银背大猩猩作为领导者引领大猩猩工作,考虑到当前的位置领导者可能存在局部最优,故对他们进行下式(29)和(30)来跳出局部缺陷,利用正弦和余弦函数将银背大猩猩的位置迁移到其他大猩猩的个体位置,以找到更好的全局解。

式(26)P模拟了大猩猩群体的决策意愿,h为调节因子(CAN2)的绝对值,CAN3为调节因子。

3)大猩猩个体差异的识别策略:大猩猩和银背大猩猩之间有一些区别。缩小当前方案和最优方案之间差异的解决方案是有利于提高GTO综合性能,其数学模型见下式:

式(31)、(32)、(33)为不同差异情况下大猩猩位置更新,其中b为银背大猩猩和个别大猩猩的影响向量,D1和D2为大猩猩个体的最大和最小差异因子。

4)正余弦增加种群之间交流:对大猩猩进行个体差异识别后,进行大猩猩和银背大猩猩适应度比选,然后在通过改变正弦和余弦函数来改善两者之间的关系,从而提高相应的开发收敛能力。具体公式如下:

2 模型对比

MGTO-LSTM对国内某基金四年数据集的训练和预测结果:(图示为随机打乱次序)

训练图:

精度指标

3 matlab代码

3.1 伪代码

3.2 MGTO-LSTM

1)时间序列:时间序列:改进大猩猩部队算法优化长短期记忆神经网络模型(MGTO-LSTM)

4 视频讲解

B站搜索:‘ 不想学习的陈成 ’ 

  • 21
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值