深度学习之多层感知机的从零开始实现

环境为pytorch
在Jupyter中运行

1.导入包与数据集

(这里的数据集是28 X 28的灰度像素值组成,所有图像共分为10个类别)
在这里插入图片描述
代码解释

import torch
from torch import nn
from d2l import torch as d2l

batch_size = 256 #批量大小等于256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)#训练和测试集

2.初始化模型参数

在这里插入图片描述
代码解释
这里我们设置一层隐藏层

num_inputs, num_outputs, num_hiddens = 784, 10, 256  #输入,输出,隐藏层

W1 = nn.Parameter(torch.randn( #w(隐藏层权重),行数是输入大小(784),列数是隐藏层大小(256),要更新,算梯度
    num_inputs, num_hiddens, requires_grad=True) * 0.01)
b1 = nn.Parameter(torch.zeros(num_hiddens, requires_grad=True))#偏差,向量,大小为隐藏层的大小,全0,算梯度
W2 = nn.Parameter(torch.randn(#输出层权重,行数256,列数10,算梯度
    num_hiddens, num_outputs, requires_grad=True) * 0.01)
b2 = nn.Parameter(torch.zeros(num_outputs, requires_grad=True))#大小10 ,因为要分10类,算梯度

params = [W1, b1, W2, b2]

3.设置激活函数

在这里插入图片描述
代码解释
其实这个relu激活函数的本质就是一个MAX函数

def relu(X):
    a = torch.zeros_like(X) #生成一个和X形状完全一样,但是元素值完全为0
    return torch.max(X, a) #求最大值

4.定义模型

在这里插入图片描述

代码解释:

def net(X):
    X = X.reshape((-1, num_inputs)) #本来是28*28的图片,拉成一个784的矩阵
    H = relu(X@W1 + b1)  # 这里“@”代表矩阵乘法 
    return (H@W2 + b2) #输出就是第一层的输出和第二层的权重做乘法,再加上偏差

5.损失函数

在这里插入图片描述

loss = nn.CrossEntropyLoss(reduction='none')

6.训练

在这里插入图片描述
代码解释:

num_epochs, lr = 10, 0.1 #跑10次,学习率为0.1
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, 
              #train_ch3一个训练算法,传入我们的模型,和训练集,数据集。损失函数,以及训练次数,还有sgd内置优化函数
              lambda batch_size: d2l.sgd(params, lr, batch_size))

结果展示:
在这里插入图片描述
初学啦,有什么问题可以指出来,谢谢

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值