BiGRU-Transformer时间序列预测(多输入单预测)——基于Pytorch框架

1 介绍

本文将介绍一种基于Transformer和BiGRU(双向门控循环单元)的混合模型及其在时间序列预测中的应用。本模特适用于多输入单输出预测,适合风电预测,功率预测,负荷预测等等。

2 方法

首先,从Excel文件中导入数据,并去除了时间列。然后,将数据分为训练集和测试集,并进行了归一化处理。输入数据为前n-1列特征,输出为最后一列特征。接着,通过设置历史步长和未来预测步长,生成适用于训练和测试的数据集。

Transformer-BiGRU模型结合了Transformer和BiGRU的优势。Transformer用于捕捉全局特征,而BiGRU则更擅长于处理序列数据中的时间依赖性。模型结构如下:

  • 输入层:接收归一化后的时间序列数据。

  • Transformer编码器层:使用多层Transformer编码器捕捉全局特征。

  • BiGRU层:使用多层双向GRU进一步处理序列特征。

  • 线性层:输出预测结果。

3 结果

我们使用均方误差(MSE)作为损失函数,并采用Adam优化器进行模型训练。在训练过程中,每隔10个epoch打印一次损失,以监控模型的训练情况。经过100个epoch的训练,模型成功拟合了训练数据.

def main():
    # 数据集和数据加载器
    dataset_train = StockDataset(file_path=args.data_path)
    dataset_val = StockDataset(file_path=args.data_path, train_flag=False)
    print('###1', len(dataset_train))
    train_loader = DataLoader(dataset_train, batch_size=32, shuffle=True)
    val_loader = DataLoader(dataset_val, batch_size=32, shuffle=False)
    # 模型、优化器和损失函数
    encoder = TransAm()
    decoder = AttnDecoder(code_hidden_size=64, hidden_size=64, time_step=time_step)
    encoder_optim = torch.optim.Adam(encoder.parameters(), lr=0.001)
    decoder_optim = torch.optim.Adam(decoder.parameters(), lr=0.001)
    # 初始化最佳验证损失为无穷大
    best_val_loss = float('inf')
    # 训练过程
    total_epoch = 10
    for epoch_idx in range(total_epoch):
        train_loss = train_once(encoder, decoder, train_loader, encoder_optim, decoder_optim)
        print("train, epoch:{:5d}, loss:{}".format(epoch_idx, train_loss))
        # 评估过程
        eval_loss, accuracy = eval_once(encoder, decoder, val_loader)
        print("eval, epoch:{:5d}, loss:{}".format(epoch_idx, eval_loss))
        # 如果当前验证损失小于最佳验证损失,则保存模型权重
        if eval_loss < best_val_loss:
            best_val_loss = eval_loss
            # 保存模型
            torch.save({
                'encoder_state_dict': encoder.state_dict(),
                'decoder_state_dict': decoder.state_dict(),
                'encoder_optim_state_dict': encoder_optim.state_dict(),
                'decoder_optim_state_dict': decoder_optim.state_dict(),
                'epoch': epoch_idx,
                'val_loss': eval_loss
            }, 'best_model.pt')
            print("Saved best model at epoch {:5d}".format(epoch_idx))
    # 加载最佳模型权重
    checkpoint = torch.load('best_model.pt')
    encoder.load_state_dict(checkpoint['encoder_state_dict'])
    decoder.load_state_dict(checkpoint['decoder_state_dict'])
    encoder_optim.load_state_dict(checkpoint['encoder_optim_state_dict'])
    decoder_optim.load_state_dict(checkpoint['decoder_optim_state_dict'])
    # 进行最终评估或预测
    eval_plot(encoder, decoder, val_loader)

在模型评估阶段,我们将测试集的数据输入训练好的模型,得到预测结果。然后,反归一化处理预测结果,以便与真实值进行对比。我们使用均方误差(MSE)、均方根误差(RMSE)、平均绝对误差(MAE)和决定系数(R²)等指标评估模型性能。

代码下载链接:BiGRU-Transformer时间序列预测(多输入单预测)——基于Pytorch框架 (qq.com)

  最后:

小编会不定期发布相关设计内容包括但不限于如下内容:信号处理、通信仿真、算法设计、matlab appdesigner,gui设计、simulink仿真......希望能帮到你!

对于时间序列预测问题,CNN和Bi-Transformer是两种常用的模型。下面是使用PyTorch实现这两种模型的代码示例: 1. 使用CNN进行时间序列预测 ```python import torch import torch.nn as nn class CNN(nn.Module): def __init__(self, input_size, hidden_size, kernel_size): super(CNN, self).__init__() self.conv = nn.Conv1d(in_channels=input_size, out_channels=hidden_size, kernel_size=kernel_size) self.relu = nn.ReLU() self.pool = nn.MaxPool1d(kernel_size=2) def forward(self, x): x = self.conv(x) x = self.relu(x) x = self.pool(x) return x class TimeSeriesCNN(nn.Module): def __init__(self, input_size, hidden_size, kernel_size): super(TimeSeriesCNN, self).__init__() self.cnn1 = CNN(input_size, hidden_size, kernel_size) self.cnn2 = CNN(hidden_size, hidden_size, kernel_size) self.linear = nn.Linear(hidden_size, 1) def forward(self, x): x = self.cnn1(x) x = self.cnn2(x) x = x.flatten(start_dim=1) x = self.linear(x) return x ``` 2. 使用Bi-Transformer进行时间序列预测 ```python import torch import torch.nn as nn class BiTransformer(nn.Module): def __init__(self, input_size, hidden_size, num_layers, num_heads, dropout): super(BiTransformer, self).__init__() self.encoder = nn.TransformerEncoder(nn.TransformerEncoderLayer( d_model=input_size, nhead=num_heads, dim_feedforward=hidden_size, dropout=dropout), num_layers=num_layers) self.decoder = nn.TransformerDecoder(nn.TransformerDecoderLayer( d_model=input_size, nhead=num_heads, dim_feedforward=hidden_size, dropout=dropout), num_layers=num_layers) self.linear = nn.Linear(input_size, 1) def forward(self, x): x = self.encoder(x) x = self.decoder(x) x = self.linear(x) return x ``` 以上是使用PyTorch实现CNN和Bi-Transformer进行时间序列预测的代码示例,可以根据具体问题进行修改和调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MatpyMaster

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值