SCI一区级 | Matlab实现BO-Transformer-BiLSTM多变量时间序列预测

SCI一区级 | Matlab实现BO-Transformer-BiLSTM多变量时间序列预测

效果一览

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

基本介绍

1.【SCI一区级】Matlab实现BO-Transformer-BiLSTM多变量时间序列预测,贝叶斯优化Transformer结合BiLSTM双向长短期记忆神经网络多变量时间序列预测,BO-Transformer-BiLSTM/Bayes-Transformer-BiLSTM(程序可以作为SCI一区级论文代码支撑,目前尚未发表);

2.贝叶斯优化参数为:学习率,BiLSTM隐含层节点,正则化参数,运行环境为Matlab2023b及以上;

3.data为数据集,输入多个特征,输出单个变量,考虑历史特征的影响,多变量时间序列预测,main.m为主程序,运行即可,所有文件放在一个文件夹;

4.命令窗口输出R2、MSE、RMSE、MAE、MAPE、MBE等多指标评价;

在这里插入图片描述

程序设计

  • 完整程序和数据下载私信博主回复Matlab实现BO-Transformer-BiLSTM多变量时间序列预测


%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行

%%  导入数据
result = xlsread('data.xlsx');

%%  数据分析
num_samples = length(result);  % 样本个数
or_dim = size(result, 2);      % 原始特征+输出数目
kim =  2;                      % 延时步长(kim个历史数据作为自变量)
zim =  1;                      % 跨zim个时间点进行预测



%%  数据集分析
outdim = 1;                                  % 最后一列为输出
num_size = 0.7;                              % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度


%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);

%%  数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);

[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);

%%  数据平铺
P_train =  double(reshape(P_train, f_, 1, 1, M));
P_test  =  double(reshape(P_test , f_, 1, 1, N));

t_train = t_train';
t_test  = t_test' ;

%%  数据格式转换
for i = 1 : M
    p_train{i, 1} = P_train(:, :, 1, i);
end

for i = 1 : N
    p_test{i, 1}  = P_test( :, :, 1, i);
end


%%  创建待优化函数
ObjFcn = @BOFunction;

%%  贝叶斯优化参数范围
optimVars = [


参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/128163536?spm=1001.2014.3001.5502
[2] https://blog.csdn.net/kjm13182345320/article/details/128151206?spm=1001.2014.3001.5502

  • 19
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
对于时间序列预测问题,CNN和Bi-Transformer是两种常用的模型。下面是使用PyTorch实现这两种模型的代码示例: 1. 使用CNN进行时间序列预测 ```python import torch import torch.nn as nn class CNN(nn.Module): def __init__(self, input_size, hidden_size, kernel_size): super(CNN, self).__init__() self.conv = nn.Conv1d(in_channels=input_size, out_channels=hidden_size, kernel_size=kernel_size) self.relu = nn.ReLU() self.pool = nn.MaxPool1d(kernel_size=2) def forward(self, x): x = self.conv(x) x = self.relu(x) x = self.pool(x) return x class TimeSeriesCNN(nn.Module): def __init__(self, input_size, hidden_size, kernel_size): super(TimeSeriesCNN, self).__init__() self.cnn1 = CNN(input_size, hidden_size, kernel_size) self.cnn2 = CNN(hidden_size, hidden_size, kernel_size) self.linear = nn.Linear(hidden_size, 1) def forward(self, x): x = self.cnn1(x) x = self.cnn2(x) x = x.flatten(start_dim=1) x = self.linear(x) return x ``` 2. 使用Bi-Transformer进行时间序列预测 ```python import torch import torch.nn as nn class BiTransformer(nn.Module): def __init__(self, input_size, hidden_size, num_layers, num_heads, dropout): super(BiTransformer, self).__init__() self.encoder = nn.TransformerEncoder(nn.TransformerEncoderLayer( d_model=input_size, nhead=num_heads, dim_feedforward=hidden_size, dropout=dropout), num_layers=num_layers) self.decoder = nn.TransformerDecoder(nn.TransformerDecoderLayer( d_model=input_size, nhead=num_heads, dim_feedforward=hidden_size, dropout=dropout), num_layers=num_layers) self.linear = nn.Linear(input_size, 1) def forward(self, x): x = self.encoder(x) x = self.decoder(x) x = self.linear(x) return x ``` 以上是使用PyTorch实现CNN和Bi-Transformer进行时间序列预测的代码示例,可以根据具体问题进行修改和调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

机器学习之心

谢谢支持!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值