TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)

I. 前言

在前面的一篇文章TensorFlow搭建LSTM实现时间序列预测(负荷预测)中,我们利用LSTM实现了负荷预测,但我们只是简单利用负荷预测负荷,并没有利用到其他一些环境变量,比如温度、湿度等。

本篇文章主要考虑用TensorFlow搭建LSTM实现多变量时间序列预测。

系列文章:

  1. 深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)
  2. PyTorch搭建LSTM实现时间序列预测(负荷预测)
  3. PyTorch中利用LSTMCell搭建多层LSTM实现时间序列预测
  4. PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)
  5. PyTorch搭建双向LSTM实现时间序列预测(负荷预测)
  6. PyTorch搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  7. PyTorch搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  8. PyTorch搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
  9. PyTorch搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
  10. PyTorch搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
  11. PyTorch中实现LSTM多步长时间序列预测的几种方法总结(负荷预测)
  12. PyTorch-LSTM时间序列预测中如何预测真正的未来值
  13. PyTorch搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
  14. PyTorch搭建ANN实现时间序列预测(风速预测)
  15. PyTorch搭建CNN实现时间序列预测(风速预测)
  16. PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
  17. PyTorch搭建Transformer实现多变量多步长时间序列预测(负荷预测)
  18. PyTorch时间序列预测系列文章总结(代码使用方法)
  19. TensorFlow搭建LSTM实现时间序列预测(负荷预测)
  20. TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)
  21. TensorFlow搭建双向LSTM实现时间序列预测(负荷预测)
  22. TensorFlow搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  23. TensorFlow搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  24. TensorFlow搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
  25. TensorFlow搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
  26. TensorFlow搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
  27. TensorFlow搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
  28. TensorFlow搭建ANN实现时间序列预测(风速预测)
  29. TensorFlow搭建CNN实现时间序列预测(风速预测)
  30. TensorFlow搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
  31. PyG搭建图神经网络实现多变量输入多变量输出时间序列预测
  32. PyTorch搭建GNN-LSTM和LSTM-GNN模型实现多变量输入多变量输出时间序列预测
  33. PyG Temporal搭建STGCN实现多变量输入多变量输出时间序列预测
  34. 时序预测中Attention机制是否真的有效?盘点LSTM/RNN中24种Attention机制+效果对比
  35. 详解Transformer在时序预测中的Encoder和Decoder过程:以负荷预测为例
  36. (PyTorch)TCN和RNN/LSTM/GRU结合实现时间序列预测
  37. PyTorch搭建Informer实现长序列时间序列预测
  38. PyTorch搭建Autoformer实现长序列时间序列预测

II. 数据处理

数据集为某个地区某段时间内的电力负荷数据,除了负荷以外,还包括温度、湿度等信息。

本文中,我们根据前24个时刻的负荷以及该时刻的环境变量来预测下一时刻的负荷。最终得到了batch_size=B的数据集Dtr、Val以及Dte,Dtr为训练集,Val为验证集,Dte为测试集。

任意输出一条数据:

(<tf.Tensor: shape=(24, 7), dtype=float32, numpy=
array([[0.36147627, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.3429366 , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.34939995, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.35257494, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.39485145, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.38066387, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.44114256, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.4603167 , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.45330796, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.47912365, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.46706894, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.5081953 , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.4452976 , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.4360156 , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.4917237 , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.4723147 , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.47849187, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.524864  , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.52128404, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.47682068, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.4345901 , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.39052632, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.33869517, 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244],
       [0.3025095 , 0.        , 0.90909094, 0.        , 0.8333333 ,
        0.3255814 , 0.24390244]], dtype=float32)>, <tf.Tensor: shape=(1,), dtype=float32, numpy=array([0.37805316], dtype=float32)>)

每一行对应一个时刻点的负荷以及环境变量,此时input_size=7。

III. LSTM模型

这里采用了TensorFlow搭建LSTM实现时间序列预测(负荷预测)中的模型:

class LSTM(keras.Model):
    def __init__(self, args):
        super(LSTM, self).__init__()
        self.lstm = Sequential()
        for i in range(args.num_layers):
            self.lstm.add(layers.LSTM(units=args.hidden_size, input_shape=(args.seq_len, args.input_size),
                                      activation='tanh', return_sequences=True))
        self.fc1 = layers.Dense(64, activation='relu')
        self.fc2 = layers.Dense(args.output_size)

    def call(self, data, training=None, mask=None):
        x = self.lstm(data)
        x = self.fc1(x)
        x = self.fc2(x)

        return x[:, -1:, :]

IV. 训练/测试

简单训练了30轮,MAPE为4.14%:
在这里插入图片描述

V. 源码及数据

后面将陆续公开~

  • 3
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
以下是一个简单的多变量时间序列预测LSTM模型的实现示例。 首先,需要导入相关的库: ```python import numpy as np import pandas as pd from keras.models import Sequential from keras.layers import LSTM, Dense from sklearn.preprocessing import MinMaxScaler ``` 接下来,读取并处理数据。假设有3个变量需要预测,分别是x1、x2和x3。首先,将数据集中的每个变量单独读入,并将它们合并为一个数据框。然后,将数据框中的每个变量标准化。 ```python # 读取数据 data_x1 = pd.read_csv('data_x1.csv', header=None) data_x2 = pd.read_csv('data_x2.csv', header=None) data_x3 = pd.read_csv('data_x3.csv', header=None) # 合并数据 data = pd.concat([data_x1, data_x2, data_x3], axis=1) # 标准化 scaler = MinMaxScaler(feature_range=(0, 1)) data = scaler.fit_transform(data) ``` 然后,将数据集分为训练集和测试集。在这个例子中,我们将前70%的数据作为训练集,后30%的数据作为测试集。 ```python # 分割数据集 train_size = int(len(data) * 0.7) test_size = len(data) - train_size train, test = data[0:train_size,:], data[train_size:len(data),:] ``` 接下来,需要定义一个函数来将数据转换为可以用于LSTM模型的格式。这个函数将输入数据和输出数据转换为3D张量。 ```python # 将数据转换为3D张量 def create_dataset(dataset, look_back=1): dataX, dataY = [], [] for i in range(len(dataset)-look_back-1): a = dataset[i:(i+look_back), :] dataX.append(a) dataY.append(dataset[i + look_back, :]) return np.array(dataX), np.array(dataY) ``` 然后,需要使用上面的函数来准备训练集和测试集。在这个例子中,我们将过去3个时间步作为输入,预测未来1个时间步。这个参数可以根据实际情况调整。 ```python # 准备训练集和测试集 look_back = 3 trainX, trainY = create_dataset(train, look_back) testX, testY = create_dataset(test, look_back) ``` 接下来,需要定义LSTM模型。在这个例子中,我们使用含有50个神经元的单个LSTM层,接着是一个密集层。激活函数为relu。输出层的激活函数为线性。 ```python # 定义LSTM模型 model = Sequential() model.add(LSTM(50, input_shape=(look_back, 3))) model.add(Dense(1, activation='relu')) model.compile(loss='mean_squared_error', optimizer='adam') ``` 然后,训练模型。在这个例子中,我们将训练集的大小设置为32,迭代次数为100。这些参数也可以根据实际情况调整。 ```python # 训练模型 model.fit(trainX, trainY, epochs=100, batch_size=32, verbose=2) ``` 最后,使用测试集来评估模型的性能。 ```python # 在测试集上评估模型 testPredict = model.predict(testX) testPredict = scaler.inverse_transform(testPredict) testY = scaler.inverse_transform(testY) testScore = np.sqrt(mean_squared_error(testY, testPredict)) print('Test Score: %.2f RMSE' % (testScore)) ``` 这就是一个简单的多变量时间序列预测LSTM模型的实现。需要注意的是,这只是一个基本的示例,实际应用中还需要进行更多的调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Cyril_KI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值