实战案例:利用 Transformer 网络进行时间序列模型预测(附完整 Python 代码)

我最近读了一篇非常有趣的论文:Deep Transformer Models for Time Series Forecasting: The Influenza Prevalence Case。这可能是一个有趣的项目,从零开始实施类似的东西,以了解更多关于时间序列预测。

预测任务:

在时间序列预测中,目标是根据时间序列的历史价值预测其未来价值。时间序列预测任务的一些例子如下:

  • 预测流感流行个案:Deep Transformer Models for Time Series Forecasting: The Influenza Prevalence Case

  • 能源产量预测:Energy consumption forecasting using a stacked non-parametric Bayesian approach

  • 天气预报:MetNet: A Neural Weather Model for Precipitation Forecasting

例如,我们可以将一个城市的能源消耗量数据存储几个月,然后训练一个模型,该模型将能够预测该城市未来的能源消耗。这可以用来估计能源需求,因此能源公司可以使用这个模型来估计在任何特定时间需要生产的能源的最佳价值。

源码&技术交流

本文项目源码、数据、技术交流提升,均可加交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友

方式①、添加微信号:dkl88191,备注:来自CSDN +研究方向
方式②、微信搜索公众号:Python学习与数据挖掘,后台回复:tf时间序列

时间序列预测实例

我们将使用的模型是一个编解码 Transformer,其中编码器部分作为输入的历史时间序列,而解码器部分以自回归的方式预测未来的价值。

解码器使用注意机制与编码器连接。通过这种方式,解码器可以学会在进行预测之前“关注”时间序列中最有用的部分历史值。

解码器使用 masked self-attention,使网络不能在训练运行过程中通过预测未来值来预测过去值来作弊。

编码器子网络:

解码器子网络:

完整模型:

自回归编/解码 Transformer

这个体系结构可以使用 PyTorch 构建,方法如下:

encoder_layer = nn.TransformerEncoderLayer(
    d_model=channels,
    nhead=8,
    dropout=self.dropout,
    dim_feedforward=4 * channels,
)
decoder_layer = nn.TransformerDecoderLayer(
    d_model=channels,
    nhead=8,
    dropout=self.dropout,
    dim_feedforward=4 * channels,
)

self.encoder = torch.nn.TransformerEncoder(encoder_layer, num_layers=8)
self.decoder = torch.nn.TransformerDecoder(decoder_layer, num_layers=8)

数据

每次我实现一种新的方法时,我都喜欢首先在合成数据上进行尝试,以便更容易理解和调试。这降低了数据的复杂性,并且更加关注于实现/算法。

我编写了一个小脚本,可以生成具有不同周期、偏移量和模式的非平凡时间序列。

def generate_time_series(dataframe):

    clip_val = random.uniform(0.3, 1)

    period = random.choice(periods)

    phase = random.randint(-1000, 1000)

    dataframe["views"] = dataframe.apply(
        lambda x: np.clip(
            np.cos(x["index"] * 2 * np.pi / period + phase), -clip_val, clip_val
        )
        * x["amplitude"]
        + x["offset"],
        axis=1,
    ) + np.random.normal(
        0, dataframe["amplitude"].abs().max() / 10, size=(dataframe.shape[0],)
    )

    return dataframe

生成的时间序列示例

然后,该模型同时对所有这些时间序列进行训练:

训练损失

结果

我们现在使用这个模型来预测这些时间序列的未来价值,结果有点喜忧参半:

错误的

错误预测的例子

正确的

正确预测的例子

结果并不像我预期的那么好,特别是考虑到通常很容易对合成数据做出好的预测,但是他们仍然是让人有所期待的。

该模型的预测有点不同步与轻微的振幅高估了一些不良的例子。在好的例子中,除去噪音,这个预测非常符合实际情况。

我可能需要调试我的代码多一点,并在优化超参数之前,我可以期望得到更好的结果。

您好!对于时序预测问题,可以使用Transformer模型进行处理。下面是一个使用Python实现时序预测的示例代码: ```python import torch import torch.nn as nn from torch.utils.data import DataLoader, Dataset # 定义自定义数据集类 class TimeSeriesDataset(Dataset): def __init__(self, data, seq_length): self.data = data self.seq_length = seq_length def __len__(self): return len(self.data) - self.seq_length def __getitem__(self, index): return ( self.data[index:index+self.seq_length], self.data[index+self.seq_length] ) # 定义Transformer模型 class TransformerModel(nn.Module): def __init__(self, input_size, output_size, num_layers, d_model, d_ff, num_heads): super(TransformerModel, self).__init__() self.encoder = nn.Embedding(input_size, d_model) self.transformer = nn.Transformer( d_model=d_model, nhead=num_heads, num_encoder_layers=num_layers, num_decoder_layers=num_layers, dim_feedforward=d_ff ) self.decoder = nn.Linear(d_model, output_size) def forward(self, x): x = self.encoder(x) x = self.transformer(x, x) x = self.decoder(x) return x # 准备数据 data = [...] # 输入数据,形状为[seq_length, input_size] seq_length = ... batch_size = ... dataset = TimeSeriesDataset(data, seq_length) dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=True) # 定义模型参数 input_size = ... output_size = ... num_layers = ... d_model = ... d_ff = ... num_heads = ... # 实例化模型 model = TransformerModel(input_size, output_size, num_layers, d_model, d_ff, num_heads) # 定义损失函数和优化器 criterion = nn.MSELoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.001) # 训练模型 num_epochs = ... for epoch in range(num_epochs): total_loss = 0 for batch_x, batch_y in dataloader: optimizer.zero_grad() output = model(batch_x) loss = criterion(output, batch_y) loss.backward() optimizer.step() total_loss += loss.item() print(f"Epoch {epoch+1}/{num_epochs}, Loss: {total_loss}") # 使用模型进行预测 test_data = [...] # 测试数据,形状为[seq_length, input_size] input_tensor = torch.tensor(test_data).unsqueeze(0) prediction = model(input_tensor) ``` 以上代码是一个简单的示例,您可以根据自己的数据和需求进行相应的调整和扩展。希望对您有帮助!如果您有任何疑问,请随时提问。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值