【从零开始学习深度学习】11.使用Pytorch实现多层感知机的构建与训练

上一篇文章中我们自己动手实现了一个多层感知机,下面我们使用PyTorch来实现一个多层感知机的训练,这种方式更加的方便快捷。

首先导入所需的包或模块。

import torch
from torch import nn
from torch.nn import init
import numpy as np
import sys
import d2lzh_pytorch as d2l

1.1 定义模型与初始化

和softmax回归唯一的不同在于,我们多加了一个全连接层作为隐藏层。它的隐藏单元个数为256,并使用ReLU函数作为激活函数。

num_inputs, num_outputs, num_hiddens = 784, 10, 256
    
net = nn.Sequential(
        d2l.FlattenLayer(),
        nn.Linear(num_inputs, num_hiddens),
        nn.ReLU(),
        nn.Linear(num_hiddens, num_outputs), 
        )

for params in net.parameters():
    init.normal_(params, mean=0, std=0.01)

1.2 读取数据并训练模型

这里模型的训练步骤与之前训练softmax回归几乎相同。

batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
loss = torch.nn.CrossEntropyLoss()

optimizer = torch.optim.SGD(net.parameters(), lr=0.5)

num_epochs = 5
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, None, None, optimizer)

输出:

epoch 1, loss 0.0030, train acc 0.712, test acc 0.744
epoch 2, loss 0.0019, train acc 0.823, test acc 0.821
epoch 3, loss 0.0017, train acc 0.844, test acc 0.842
epoch 4, loss 0.0015, train acc 0.856, test acc 0.842
epoch 5, loss 0.0014, train acc 0.864, test acc 0.818

1.3 完整代码

import torch
from torch import nn
from torch.nn import init
import numpy as np
import sys
import d2lzh_pytorch as d2l

num_inputs, num_outputs, num_hiddens = 784, 10, 256


# 定义模型
net = nn.Sequential(
        d2l.FlattenLayer(),
        nn.Linear(num_inputs, num_hiddens),
        nn.ReLU(),
        nn.Linear(num_hiddens, num_outputs), 
        )

# 初始化参数
for params in net.parameters():
    init.normal_(params, mean=0, std=0.01)

# 加载数据
batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
loss = torch.nn.CrossEntropyLoss()

# 定义优化函数
optimizer = torch.optim.SGD(net.parameters(), lr=0.5)

# 训练
num_epochs = 5
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, None, None, optimizer)

如果内容对你有帮助,感谢点赞+关注哦!

关注下方GZH,可获取更多干货内容~欢迎共同学习交流

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
动手深度学习感知机从零开始的步骤如下: 1. 导入所需的包或模块,包括torch、numpy和d2lzh_pytorch等。 2. 获取和读取数据,可以使用Fashion-MNIST图像分类数据集作为训练和测试数据集。 3. 初始化模型参数,包括输入维度、隐藏维度和输出维度等。这些参数可以根据具体情况进行设置。 4. 定义激活函数,可以使用ReLU等常见的激活函数。 5. 定义模型结构,包括输入、隐藏和输出等。在每一之间都可以加上激活函数。 6. 定义损失函数,可以使用交叉熵损失函数等。 7. 训练模型,可以使用梯度下降等优化算法进行模型参数的更新。训练过程中可以设置迭代周期数和学习率等超参数。 8. 输出结果,可以使用准确率等指标来评估模型的性能。 9. 使用预测函数进行预测,将输入数据输入模型,得到对应的预测结果。 以上是从零开始实现多层感知机的步骤。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [【动手学深度学习多层感知机从零开始实现(含源代码)](https://blog.csdn.net/wzk4869/article/details/127984842)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [【从零开始学习深度学习】10.自己动手从零开始实现一个多层感知机](https://blog.csdn.net/qq_42589613/article/details/128187230)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿_旭

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值