苍鹰来啦!快来看呀!NGO-BiTCN-BiGRU-Attention北方苍鹰算法优化多重双向深度学习回归预测

苍鹰来啦!快来看呀!NGO-BiTCN-BiGRU-Attention北方苍鹰算法优化多重双向深度学习回归预测

效果一览

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

基本介绍

1.Matlab实现NGO-BiTCN-BiGRU-Attention北方苍鹰算法优化双向时间卷积双向门控循环单元融合注意力机制多变量回归预测(完整源码和数据),优化学习率,BiGRU的神经元个数,滤波器个数, 正则化参数;

2.输入多个特征,输出单个变量,回归预测,自注意力机制层,运行环境matlab2023及以上;

3.命令窗口输出R2、MAE、MAPE、 RMSE多指标评价;

4.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。

5.适用对象:大学生课程设计、期末大作业和毕业设计。

在这里插入图片描述

程序设计

  • 完整程序和数据获取方式私信博主回复NGO-BiTCN-BiGRU-Attention北方苍鹰算法优化多重双向深度学习回归预测(Matlab)


%%  清空环境变量
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行
warning off             % 关闭报警信息
%% 导入数据
res = xlsread('data.xlsx');

%%  数据分析
num_size = 0.7;                              % 训练集占数据集比例
outdim = 1;                                  % 最后一列为输出
num_samples = size(res, 1);                  % 样本个数
res = res(randperm(num_samples), :);         % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度

%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);

%%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);

[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);

%%  格式转换
for i = 1 : M 
    vp_train{i, 1} = p_train(:, i);
    vt_train{i, 1} = t_train(:, i);
end

for i = 1 : N 
    vp_test{i, 1} = p_test(:, i);
    vt_test{i, 1} = t_test(:, i);
end

disp('程序运行时间较长,需迭代popsize*maxgen次!可自行调整运行参数')

%%  初始化参数
popsize = 4;                            %  初始种群规模
maxgen = 10;                             %  最大进化代数
fobj = @(x)objectiveFunction(x,f_,vp_train,vt_train,vp_test,T_test,ps_output);

%%  优化算法参数设置
lb = [0.0001 10 20  0.00001];           %  参数的下限。分别是学习率,BiGRU的神经元个数,滤波器个数, 正则化参数
ub = [0.01 100 120 0.005];               %  参数的上限
dim = length(lb);%数量

[Best_score,Best_pos,SSA_curve]=SSA(popsize,maxgen,lb,ub,dim,fobj);
setdemorandstream(pi);

%%  将优化目标参数传进来的值 转换为需要的超参数
learning_rate = Best_pos(1);                   %  学习率
NumNeurons = round(Best_pos(2));               %  BiGRU神经元个数
numFilters = round(Best_pos(3));               %  滤波器个数
L2Regularization = Best_pos(4);                %  正则化参数



参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/127931217
[2] https://blog.csdn.net/kjm13182345320/article/details/127418340

  • 8
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

机器学习之心

谢谢支持!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值