多层感知机的简洁实现

注:本文参考李沐老师的动手学深度学习第二版,代码是教材上的,我只是调整一些参数,加一些层数看看训练效果。

1.引入库

import torch
from torch import nn
from d2l import torch as d2l

2.构造层数

net = nn.Sequential(nn.Flatten(),nn.Linear(784,512),nn.ReLU(),nn.Linear(512,256),
                    nn.ReLU(),nn.Linear(256,64),nn.ReLU(),nn.Linear(64,10))#这里有四个全连接层,隐藏层单元数分别为512,256,64
def init_weights(m):
  if type(m) == nn.Linear:
    nn.init.normal_(m.weight,std=0.01)
net.apply(init_weights);#nn.Linear的weight和bias会自动初始化,这里使用init_weight只是不希望采用对weight的默认初始化,对bias采用默认初始化就可以

3.训练过程

batch_size, lr, num_epochs = 64, 0.1, 10#这里batch_size如果用256的话会特别诡异,可以尝试一下
loss = nn.CrossEntropyLoss(reduction='none')#交叉熵损失函数
trainer = torch.optim.SGD(net.parameters(), lr=lr)#优化方式是随机梯度下降

4.开始训练

train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)

输出结果为:
在这里插入图片描述
训练效果还是比较好的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值