rnn神经网络模型_轻松学Pytorch 构建循环神经网络

本文介绍了如何使用Pytorch构建RNN和LSTM模型来识别MNIST手写数字。数据集为28x28大小的图像,模型输入为[N, seq_len, x],隐藏层分别为RNN的2层和LSTM的1层。代码实现中,batch_first参数设为true,模型训练和测试结果显示了识别效果。" 50491292,5567959,使用SSH连接无显示器的树莓派,"['SSH', '树莓派', 'Linux']
摘要由CSDN通过智能技术生成
389123cc5ef76f2b9317adc949591cd5.gif

点击上方蓝字关注我们

微信公众号:OpenCV学堂

关注获取更多计算机视觉与深度学习知识

循环神经网络

大家好,使用pytorch实现简单的人工神经网络跟卷积神经网络的mnist手写识别案例之后,今天给大家分享一下如何基于循环神经网络实现mnist手写数字识别。这里基于pytorch提供的函数,简单封装分别实现了一个RNN跟LSTM的模型,然后分别使用这两个模型完成了mnist数字识别。下面就来说说数据集跟模型实现部分。

数据集:mnist手写数据集

模型输入:[N, seq_len, x] = [N, 28, 28]

其中N表示batch size

中间的seq_len=28表示展开28次

最后28表示每次输入28x1

对应的mnist数据集图像大小28x28的大小。

隐藏层:对RNN用了2层,对LSTM用了1层,简单看一下一个隐藏层的RNN展开,你就会明白一切,如下图:

e8c0cba2feb08e1c6fb3e01b2155667c.png

上图就是RNN单元简单的展开说明,可以有多个隐藏层的。

网络实现

网络实现的代码部分,有一个叫batch_first的参数,它的意思是batch size放在输入的第一个维度。所以我这里填上true。同样通过继承基类t.nn.Module来实现模型结构定义。

RNN网络的代码实现,隐藏层神经元100个

class RNN_Net(t.nn.Module):
    def __init__(self):
        super(RNN_Net, self).__init__()
        self.rnn_layers = t.nn.RNN(input_size=28, hidden_size=100, num_layers=2, batch_first=True)
        self.out_layer = t.nn.Linear(100, 10)

    def forward(self, x):
        r_out, hn = self.rnn_layers(x, None)
        out = self.out_layer(r_out[:, -1, :])
        return out

LSTM网络的代码实现,隐藏层神经元60个

class LSTM_Net(t.nn.Module):
    def __init__(self):
        super(LSTM_Net, self).__init__()
        self.rnn_layers = t.nn.LSTM(input_size=28, hidden_size=64, num_layers=1, batch_first=True)
        self.out_layer = t.nn.Linear(64, 10)

    def forward(self, x):
        r_out, hn = self.rnn_layers(x, None)
        out = self.out_layer(r_out[:, -1, :])
        return out

训练与测试

训练与测试代码实现

rnn_model = LSTM_Net()
print(rnn_model)
optimizer = t.optim.Adam(rnn_model.parameters(), lr=0.001)
loss_fn = t.nn.CrossEntropyLoss()

for epoch in range(2):
    for i, (x_train, y_train) in enumerate(train_dl):
        x_train = x_train.view(-1, 28, 28)
        y_pred = rnn_model(x_train)
        train_loss = loss_fn(y_pred, y_train)
        optimizer.zero_grad()
        train_loss.backward()
        optimizer.step()
        if (i + 1) % 50 == 0:
            print(i + 1, train_loss.item())

total = 0
correct_count = 0
for test_images, test_labels in test_dl:
    for i in range(len(test_labels)):
        image = test_images[i].view(1, 28, 28)
        with t.no_grad():
            pred_labels = rnn_model(image)
        probs = list(pred_labels.numpy()[0])
        pred_label = probs.index(max(probs))
        true_label = test_labels.numpy()[i]
        if pred_label == true_label:
            correct_count += 1
        total += 1
print("total acc : %.2f\n"%(correct_count / total))
t.save(rnn_model, './rnn_mnist_model.pt')

测试与运行结果如下:

6579778331d6a2b8328fab0943f7b30f.png

今天是520,留言点赞的都是真爱!希望大家继续支持,大家的支持与反馈是我坚持写下去的动力!

 推荐阅读 

轻松学Pytorch–环境搭建与基本语法

Pytorch轻松学-构建浅层神经网络

轻松学pytorch-构建卷积神经网络

不积硅步,无以至千里

45a4f5e99469a9bb5e2a3400abbafa4e.png

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值