多策略混合改进的山瞪羚算法(HMGO)优化长短期记忆神经网络原理及Matlab代码

目录

0 引言

1 数学模型

2 模型性能

3 Matlab代码

3.1 伪代码

3.2 HMGO-LSTM

4 视频讲解

0 引言

在高维度场景下,MGO在迭代中解多样性不足,容易陷入局部最优解。为解决此问题,已有学者提出通过优化初始种群、引入动态自适应密度因子、融合具有正余弦算子的AOA策略,增强算法在高维搜索空间中的勘探与开发平衡,从而提升其整体性能。

1 数学模型

多策略混合改进的山瞪羚算法(HMGO)是在MGO的基础上,通过引入融合准反向学习策略增强随机初始化种群均匀随机性、动态自适应因子平衡全局探索和局部开发能力、缩放因子和AOA测量引入来增强MGO勘探和开发能力。

1)初始化种群:在随机种群基础引入融合准反向学习策略。

式中r为-1到1的随机值,lb,ub为问题维度边界。

2)动态自适应因子:收敛因子a1对系数向量Cofi有显著影响,进而制约算法在开发与探测阶段的表现。MGO中a1受迭代次数影响呈线性变化,收敛因子导致山瞪羚的搜索范围受限,不利于全局勘探与局部开发的有效平衡。基于对其他群智能算法参考,提出引入动态因子来提高地瞪羚前期全局搜索能力和后期的开发能力。

3)缩放因子:为解决MGO全局搜索性能忽略的问题,引入缩放因子(scaling factor, sf)优化机制

式中引入sf缩放因子对山瞪羚4中社会行为进行优化。

4)算术算法优化策略:为提高MGO算法的勘探和开发能力,针对后期易陷入局部最优解问题,特殊处理种群中的20%个体。引入算术优化算法。通过乘法和除法策略进行全局搜索,提高解的分散性,增强全局寻优能力。利用加法和减法策略降低解的分散性,增强局部寻优能力。同时引入正余弦算子使AOA产生的解向内或向外移动,动态地调整算法参数,达到提高全局搜索的效果增加解的多样性。

式中g(*)为AOA衍生的映射派生,其式子如下:

式中Ari为0到1的随机数,u为0.499设定参数。

2 模型性能

HMGO-LSTM对国内某基金四年数据集的训练和预测结果:(图示为随机打乱次序)

训练图:

精度指标

3 Matlab代码

3.1 伪代码

3.2 HMGO-LSTM

1)时间序列:时间序列:多策略混合改进的山瞪羚算法优化长短期记忆神经网络(HMGO-LSTM)

4 视频讲解

B站搜索:‘ 不想学习的陈成 ’

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值