TensorFlow搭建LSTM实现时间序列预测(负荷预测)

I. 前言

前面已经写过不少时间序列预测的文章:

  1. 深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)
  2. PyTorch搭建LSTM实现时间序列预测(负荷预测)
  3. PyTorch中利用LSTMCell搭建多层LSTM实现时间序列预测
  4. PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)
  5. PyTorch搭建双向LSTM实现时间序列预测(负荷预测)
  6. PyTorch搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  7. PyTorch搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  8. PyTorch搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
  9. PyTorch搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
  10. PyTorch搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
  11. PyTorch中实现LSTM多步长时间序列预测的几种方法总结(负荷预测)
  12. PyTorch-LSTM时间序列预测中如何预测真正的未来值
  13. PyTorch搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
  14. PyTorch搭建ANN实现时间序列预测(风速预测)
  15. PyTorch搭建CNN实现时间序列预测(风速预测)
  16. PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
  17. PyTorch搭建Transformer实现多变量多步长时间序列预测(负荷预测)
  18. PyTorch时间序列预测系列文章总结(代码使用方法)
  19. TensorFlow搭建LSTM实现时间序列预测(负荷预测)
  20. TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)
  21. TensorFlow搭建双向LSTM实现时间序列预测(负荷预测)
  22. TensorFlow搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  23. TensorFlow搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  24. TensorFlow搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
  25. TensorFlow搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
  26. TensorFlow搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
  27. TensorFlow搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
  28. TensorFlow搭建ANN实现时间序列预测(风速预测)
  29. TensorFlow搭建CNN实现时间序列预测(风速预测)
  30. TensorFlow搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
  31. PyG搭建图神经网络实现多变量输入多变量输出时间序列预测
  32. PyTorch搭建GNN-LSTM和LSTM-GNN模型实现多变量输入多变量输出时间序列预测
  33. PyG Temporal搭建STGCN实现多变量输入多变量输出时间序列预测
  34. 时序预测中Attention机制是否真的有效?盘点LSTM/RNN中24种Attention机制+效果对比
  35. 详解Transformer在时序预测中的Encoder和Decoder过程:以负荷预测为例
  36. (PyTorch)TCN和RNN/LSTM/GRU结合实现时间序列预测
  37. PyTorch搭建Informer实现长序列时间序列预测
  38. PyTorch搭建Autoformer实现长序列时间序列预测

上述文章中的代码都是基于PyTorch写的,考虑到目前TensorFlow的使用人群也较多,因此接下来一段时间会逐步将上面文章中的代码改用TensorFlow实现。

这篇文章是PyTorch搭建LSTM实现时间序列预测(负荷预测)的TensorFlow实现。

II. 数据处理

数据集为某个地区某段时间内的电力负荷数据,除了负荷以外,还包括温度、湿度等信息。

本篇文章暂时不考虑其它变量,只考虑用历史负荷来预测未来负荷。本文中,我们根据前24个时刻的负荷下一时刻的负荷。

代码风格和之前PyTorch类似:

def nn_seq_us(seq_len, B):
    print('data processing...')
    dataset = load_data()
    # split
    train = dataset[:int(len(dataset) * 0.6)]
    val = dataset[int(len(dataset) * 0.6):int(len(dataset) * 0.8)]
    test = dataset[int(len(dataset) * 0.8):len(dataset)]
    m, n = np.max(train[train.columns[1]]), np.min(train[train.columns[1]])

    def process(data, batch_size, shuffle):
        load = data[data.columns[1]]
        data = data.values.tolist()
        load = (load - n) / (m - n)
        load = load.tolist()
        X, Y = [], []
        for i in range(len(data) - seq_len):
            train_seq = []
            train_label = []
            for j in range(i, i + seq_len):
                x = [load[j]]
                # for c in range(2, 8):
                #     x.append(data[i + 24][c])
                train_seq.append(x)
            train_label.append(load[i + seq_len])
            X.append(train_seq)
            Y.append(train_label)

        X = tf.data.Dataset.from_tensor_slices(X)
        Y = tf.data.Dataset.from_tensor_slices(Y)
        seq = tf.data.Dataset.zip((X, Y))
        if shuffle:
            seq = seq.batch(batch_size, drop_remainder=False).shuffle(batch_size).prefetch(batch_size)
        else:
            seq = seq.batch(batch_size, drop_remainder=False).prefetch(batch_size)

        return seq

    Dtr = process(train, B, shuffle=True)
    Val = process(val, B, shuffle=True)
    Dte = process(test, B, shuffle=False)

前面PyTorch中数据的分批处理:

seq = MyDataset(seq)
seq = DataLoader(dataset=seq, batch_size=batch_size, shuffle=shuffle, num_workers=0, drop_last=False)

TensorFlow中数据的分批处理:

X = tf.data.Dataset.from_tensor_slices(X)
Y = tf.data.Dataset.from_tensor_slices(Y)
seq = tf.data.Dataset.zip((X, Y))
seq = seq.batch(batch_size, drop_remainder=False).prefetch(batch_size)

III. 模型

利用TensorFlow搭建的LSTM模型如下所示:

class LSTM(keras.Model):
    def __init__(self, args):
        super(LSTM, self).__init__()
        self.lstm = Sequential()
        for i in range(args.num_layers):
            self.lstm.add(layers.LSTM(units=args.hidden_size, input_shape=(args.seq_len, args.input_size),
                                      activation='tanh', return_sequences=True))
        self.fc1 = layers.Dense(64, activation='relu')
        self.fc2 = layers.Dense(args.output_size)

    def call(self, data, training=None, mask=None):
        x = self.lstm(data)
        x = self.fc1(x)
        x = self.fc2(x)

        return x[:, -1:, :]

参数同PyTorch中的类似:units表示hidden_sizeinput_shape=(seq_len, input_size)return_sequences=True表示返回所有时间步的输出,我们只需要取最后一个时间步的输出,由于keras中的LSTM没有类似于PyTorch中LSTM的num_layers参数,所以我们需要手动添加。

作为对比,我们给出前面利用PyTorch定义的LSTM模型:

class LSTM(nn.Module):
    def __init__(self, input_size, hidden_size, num_layers, output_size, batch_size):
        super().__init__()
        self.input_size = input_size
        self.hidden_size = hidden_size
        self.num_layers = num_layers
        self.output_size = output_size
        self.num_directions = 1 # 单向LSTM
        self.batch_size = batch_size
        self.lstm = nn.LSTM(self.input_size, self.hidden_size, self.num_layers, batch_first=True)
        self.linear = nn.Linear(self.hidden_size, self.output_size)

    def forward(self, input_seq):
        batch_size, seq_len = input_seq.shape[0], input_seq.shape[1]
        h_0 = torch.randn(self.num_directions * self.num_layers, self.batch_size, self.hidden_size).to(device)
        c_0 = torch.randn(self.num_directions * self.num_layers, self.batch_size, self.hidden_size).to(device)
        # output(batch_size, seq_len, num_directions * hidden_size)
        output, _ = self.lstm(input_seq, (h_0, c_0)) # output(5, 30, 64)
        pred = self.linear(output)  # (5, 30, 1)
        pred = pred[:, -1, :]  # (5, 1)
        return pred

可以发现,二者基本一致。

IV. 训练/测试

def train(args, Dtr, Val, Dte, M, path):
    model = LSTM(args)
    if args.optimizer == 'adam':
        optimizer = tf.keras.optimizers.Adam(learning_rate=args.lr)
    else:
        optimizer = tf.keras.optimizers.SGD(learning_rate=args.lr,
                                            momentum=0.9)
    loss_function = tf.keras.losses.MeanSquaredError()
    min_val_loss = 5
    best_model = None
    best_test_mape = 0
    best_test_res = None
    min_epochs = 5
    for epoch in tqdm(range(args.epochs)):
        train_loss = []
        for batch_idx, (seq, label) in enumerate(Dtr):
            with tf.GradientTape() as tape:
                pred = model(seq)
                loss = loss_function(label, pred)
                train_loss.append(loss)
            # 计算梯度
            grads = tape.gradient(loss, model.trainable_variables)
            # 根据梯度更新权重
            optimizer.apply_gradients(zip(grads, model.trainable_variables))

        val_loss, test_mape, res = test(model, Val, Dte, M)
        if epoch + 1 > min_epochs and val_loss < min_val_loss:
            min_val_loss = val_loss
            best_test_mape = test_mape
            best_model = copy.deepcopy(model)
            best_test_res = copy.deepcopy(res)

        print('epoch {:03d} train_loss {:.8f} val_loss {:.8f} test_mape {:.5f}'
              .format(epoch, np.mean(train_loss), val_loss, test_mape))
    best_model.save_weights(path)

    return best_test_mape, best_test_res

训练同样返回验证集上表现最优的模型。

需要注意的是,TensorFlow中模型更新的过程为:

for batch_idx, (seq, label) in enumerate(Dtr):
    with tf.GradientTape() as tape:
        pred = model(seq)
        loss = loss_function(pred, label)
        train_loss.append(loss)
    # 计算梯度
    grads = tape.gradient(loss, model.trainable_variables)
    # 根据梯度更新权重
    optimizer.apply_gradients(zip(grads, model.trainable_variables))

与之对比,PyTorch中为:

for (seq, label) in Dtr:
    seq = seq.to(device)
    label = label.to(device)
    y_pred = model(seq)
    loss = loss_function(y_pred, label)
    train_loss.append(loss.item())
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

模型保存:

best_model.save_weights('models/model')

模型加载与预测:

def predict(args, Dte, M, path):
    model = LSTM(args)
    model.load_weights(path)
    y, pred = [], []
    for batch_idx, (seq, label) in tqdm(enumerate(Dte)):
        # print(seq.shape)
        # print(label.shape)
        p = model(seq)
        label = label.numpy().flatten().tolist()
        p = p.numpy().flatten().tolist()
        # print(len(p), len(label))
        y.extend(label)
        pred.extend(p)
    # 计算mape
    m, n = M[0], M[1]
    y, pred = np.array(y), np.array(pred)
    y = (m - n) * y + n
    pred = (m - n) * pred + n
    plot(y, pred)

    return get_mape(y, pred)

训练30个epoch,测试集上的MAPE为:

best_test_mape: 0.052237886800780085

画图:
在这里插入图片描述

V. 源码及数据

后面统一整理。

  • 13
    点赞
  • 68
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 7
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Cyril_KI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值