莫烦 pytorch RNN 回归

我的视频学习笔记

视频地址:https://www.bilibili.com/video/av15997678?p=23

import torch
from torch import nn
import numpy as np
import torchvision.datasets as dsets
import torchvision.transforms as transforms
import matplotlib.pyplot as plt

# Hyper parameters
BATCH_SIZE = 64
EPOCH = 1
TIME_STEP = 28  # 考虑多少个时间点的数据
INPUT_SIZE = 1  # 每个时间点给RNN多少个数据点
LR = 0.01

class RNN(nn.Module):
    def __init__(self):
        super(RNN, self).__init__()
        self.rnn = nn.RNN(
            input_size=INPUT_SIZE,
            hidden_size=32,
            num_layers=1,
            batch_first=True,
        )
        self.out = nn.Linear(32, 1)

    def forward(self, x, h_state):
        # x(batch, time_step, input_size)
        # h_state(n_layers, batch, hidden_size)
        # r_out(batch, time_step, output_size = hidden_size)
        r_out, h_state = self.rnn(x, h_state)
        outs = []
        for time_step in range(r_out.size(1)):  # size是tensor的形状是一个数组,size(1)就是里面的第二个值域,
            # 就是time_step的值的个数 即第二个维度的大小
            outs.append(self.out(r_out[:, time_step, :]))
        return torch.stack(outs, dim=1), h_state


rnn = RNN()
print(rnn)

optimizer = torch.optim.Adam(rnn.parameters(), lr=LR)  # optimize all cnn parameters
loss_func = nn.MSELoss()

h_state = None

plt.figure(1, figsize=(12, 5))
plt.ion()

for step in range(50):
    start, end = step * np.pi, (step + 1) * np.pi
    # use sin pre cos
    steps = np.linspace(start, end, TIME_STEP, dtype=np.float32)
    x_np = np.sin(steps)
    y_np = np.cos(steps)

    x = torch.from_numpy(x_np[np.newaxis, :, np.newaxis])  # shape(batch, time_step, input_size)
    y = torch.from_numpy(y_np[np.newaxis, :, np.newaxis])

    prediction, h_state = rnn(x, h_state)
    h_state = h_state.data  # !!! this step is important

    loss = loss_func(prediction, y)
    optimizer.zero_grad()  # clear gradient for next train
    loss.backward()  # back propagation, compute gradient
    optimizer.step()

    # plot
    plt.plot(steps, y_np.flatten(), 'r-')
    plt.plot(steps, prediction.data.numpy().flatten(), 'b-')
    plt.draw()
    plt.pause(0.5)

plt.ioff()
plt.show()

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch是一个用于深度学习的开源框架,其中的RNN(循环神经网络)模块可以用于多输入变量回归任务。多输入变量回归是一种通过多个输入变量来预测一个连续值的任务。 在PyTorch中,可以使用torch.nn.RNN类来构建RNN模型。要实现多输入变量回归,首先需要将输入的多个变量进行堆叠或拼接,形成一个输入序列来喂给模型。可以使用torch.cat()函数将输入变量按列进行拼接。 然后,可以定义RNN模型的参数,如隐藏层的大小、RNN层的类型(如GRU或LSTM)等。可以使用torch.nn.GRU或torch.nn.LSTM类来定义RNN层。 在前向传播过程中,可以通过调用RNN模型的forward()方法来计算输出。输出结果可以通过添加全连接层,将RNN的输出转换为所需的预测结果。需要注意的是,在RNN模型的前向传播过程中,需要将输入序列作为参数传递给模型。 在训练过程中,可以定义损失函数和优化器,通过最小化损失函数来更新模型的参数。常用的损失函数包括均方误差(MSE)和平均绝对误差(MAE)等。 最后,在训练和测试阶段,可以循环遍历数据集,并将输入序列和对应的目标值喂给模型,然后计算损失并进行反向传播。可以通过调用optimizer.step()方法来更新模型的参数。 综上所述,PyTorch中的RNN模块可以用于多输入变量回归任务。通过适当的数据处理、设置模型参数、定义损失函数和优化器,可以实现对多输入变量的连续值预测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值