3.9_mlp-scratch

3.9 多层感知机的从零开始实现

我们已经从上一节里了解了多层感知机的原理。下面,我们一起来动手实现一个多层感知机。首先导入实现所需的包或模块。

import torch
import numpy as np
import sys
sys.path.append("..")
import d2lzh_pytorch as d2l

3.9.1 获取和读取数据

这里继续使用Fashion-MNIST数据集。我们将使用多层感知机对图像进行分类。

batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

3.9.2 定义模型参数

我们在3.6节(softmax回归的从零开始实现)里已经介绍了,Fashion-MNIST数据集中图像形状为 28 × 28 28 \times 28 28×28,类别数为10。本节中我们依然使用长度为 28 × 28 = 784 28 \times 28 = 784 28×28=784 的向量表示每一张图像。因此,输入个数为784,输出个数为10。实验中,我们设超参数隐藏单元个数为256。

num_inputs, num_outputs, num_hiddens = 784, 10, 256

W1 = torch.tensor(np.random.normal(0, 0.01, (num_inputs, num_hiddens)), dtype=torch.float)
b1 = torch.zeros(num_hiddens, dtype=torch.float)
W2 = torch.tensor(np.random.normal(0, 0.01, (num_hiddens, num_outputs)), dtype=torch.float)
b2 = torch.zeros(num_outputs, dtype=torch.float)

params = [W1, b1, W2, b2]
for param in params:
    param.requires_grad_(requires_grad=True)

3.9.3 定义激活函数

这里我们使用基础的max函数来实现ReLU,而非直接调用relu函数。

def relu(X):
    return torch.max(input=X, other=torch.tensor(0.0))

3.9.4 定义模型

同softmax回归一样,我们通过view函数将每张原始图像改成长度为num_inputs的向量。然后我们实现上一节中多层感知机的计算表达式。

def net(X):
    X = X.view((-1, num_inputs))
    H = relu(torch.matmul(X, W1) + b1)
    return torch.matmul(H, W2) + b2

3.9.5 定义损失函数

为了得到更好的数值稳定性,我们直接使用PyTorch提供的包括softmax运算和交叉熵损失计算的函数。

loss = torch.nn.CrossEntropyLoss()

3.9.6 训练模型

训练多层感知机的步骤和3.6节中训练softmax回归的步骤没什么区别。我们直接调用d2lzh_pytorch包中的train_ch3函数,它的实现已经在3.6节里介绍过。我们在这里设超参数迭代周期数为5,学习率为100.0。

注:由于原书的mxnet中的SoftmaxCrossEntropyLoss在反向传播的时候相对于沿batch维求和了,而PyTorch默认的是求平均,所以用PyTorch计算得到的loss比mxnet小很多(大概是maxnet计算得到的1/batch_size这个量级),所以反向传播得到的梯度也小很多,所以为了得到差不多的学习效果,我们把学习率调得成原书的约batch_size倍,原书的学习率为0.5,这里设置成100.0。(之所以这么大,应该是因为d2lzh_pytorch里面的sgd函数在更新的时候除以了batch_size,其实PyTorch在计算loss的时候已经除过一次了,sgd这里应该不用除了)

num_epochs, lr = 5, 100.0
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, params, lr)

输出:

epoch 1, loss 0.0030, train acc 0.714, test acc 0.753
epoch 2, loss 0.0019, train acc 0.821, test acc 0.777
epoch 3, loss 0.0017, train acc 0.842, test acc 0.834
epoch 4, loss 0.0015, train acc 0.857, test acc 0.839
epoch 5, loss 0.0014, train acc 0.865, test acc 0.845

小结

  • 可以通过手动定义模型及其参数来实现简单的多层感知机。
  • 当多层感知机的层数较多时,本节的实现方法会显得较烦琐,例如在定义模型参数的时候。

注:本节除了代码之外与原书基本相同,原书传送门

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
“count <- 1 #说明是第几个模型 for (nhidden in 1:3) #一层隐藏层,选用1至3个隐藏单元 { ##考虑使用规则化方法建立多层感知器模型,考虑权衰减常数的四种取值 for (idecay in 1:4) { cdecay <- 0.1^idecay #权衰减常数为0.1的幂,幂的指数为idecay mlp_model <- mlp(x_train,y_train, inputsTest=x_valid,targetsTest=y_valid, maxit=300,size=c(nhidden), learnFunc ="BackpropWeightDecay", learnFuncParams=c(0.1,cdecay,0,0)) #使用mlp函数建立多层感知器模型。 # learnFunc ="BackpropWeightDecay"指定训练方法为带权衰减的向后传播算法。 # learnFuncParams的第一个元素为学习速率,这里指定为0.1;第二个元素为权衰减常数。 pred_prob_train <- mlp_model$fitted.values pred_class_train <- rep(1,length(traindata$Outcome)) pred_class_train[pred_prob_train[,2]>1/6] <- 2 Alltrainfit$nhidden[count] <- nhidden Alltrainfit$cdecay[count] <- cdecay Alltrainfit$totalloss[count] <- 5*length(pred_class_train[traindata$Outcome==1 & pred_class_train==0])+ 1*length(pred_class_train[traindata$Outcome==0 & pred_class_train==1]) pred_prob_valid <- mlp_model$fittedTestValues pred_class_valid <- rep(1,length(validdata$Outcome)) pred_class_valid[pred_prob_valid[,2]>1/6] <- 2 Allvalidfit$nhidden[count] <- nhidden Allvalidfit$cdecay[count] <- cdecay Allvalidfit$totalloss[count] <- 5*length(pred_class_valid[validdata$Outcome==1 & pred_class_valid==0])+ 1*length(pred_class_valid[validdata$Outcome==0 & pred_class_valid==1]) assign(paste("diabetes_MLP",nhidden,"_WD",idecay,sep=""),mlp_model) #将模型记录在指定名称(diabetes_MLP1_WD1等)的对象中。 count <- count+1 } } diabetes_MLP_models <- list(diabetes_MLP1_WD1,diabetes_MLP1_WD2, diabetes_MLP1_WD3,diabetes_MLP1_WD4, diabetes_MLP2_WD1,diabetes_MLP2_WD2, diabetes_MLP2_WD3,diabetes_MLP2_WD4, diabetes_MLP3_WD1,diabetes_MLP3_WD2, diabetes_MLP3_WD3,diabetes_MLP3_WD4) #将12个模型放在列表diabetes_MLP_Models中 diabetes_MLP_models saveRDS(diabetes_MLP_models,"out/diabetes_MLP_models.rds") #将该列表保留在文件中,以后可以用readRDS函数从文件中读取 readRDS("out/diabetes_MLP_models.rds") pre <- predict(diabetes_MLP2_WD4,x_train,type="prob") pre <- predict(diabetes_MLP2_WD4,x_valid,type="prob")”
05-25

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

给算法爸爸上香

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值