Dropout的正则化原理

Dropout的正则化原理

1、dropout 如何工作

典型的神经网络其训练流程是将输入通过网络进行正向传导,然后将误差进行反向传播。Dropout就是针对这一过程之中,随机地删除隐藏层的部分单元,进行上述过程。步骤如下:

随机删除网络中的一些隐藏神经元,保持输入输出神经元不变将输入通过修改后的网络进行前向传播,然后将误差通过修改后的网络进行反向传播对于另外一批的训练样本,重复上述操作训练阶段使用Dropout,测试阶段把Dropout屏蔽。

所以,在训练的时候为每个存活下来的神经元做同采样比例的放大,或者,另外一种选择就是把测试结果根据采样比例缩小。

Dropout之所以具有正则化能力的两个解释:

  1. 强迫网络拥有冗余的表示;
  2. Dropout在训练一个大规模的网络组合(ensemble)

强迫网络拥有冗余的表示:在每轮迭代中,总是随机屏蔽一定比例的神经元,因此输出并不知道它正在组合哪些特征,比起没有Dropout时过于专注于某些特征(比如拿识别猫来说,过于专注于猫的眼睛),现在模型把专注力分散到每个特征,使得这些特征也能具备比较好的预测能力。由于原本具有很高权重的那些特征现在被压缩,达到了正则化的效果。 Dropout相当于模型平均、模型组合:看作是模型平均的一种,平均一个大量不同的网络。不同的网络在不同的情况下过拟合,但是共用一个损失函数,相当于同时进行了优化,取了平均;相比之前使用所有的数据在一个模型里面训练,Dropout相当于在训练阶段每次针对一批数据就生成一个独特的小模型,然后再将这些模型组合起来的一种方法。我们在《透彻理解集成算法及其思想》一文中对于集成模型的优势有很好的阐述。

减少复杂依赖性:由于每次用输入网络的样本进行权值更新时,隐含节点都是以一定概率随机出现,因此不能保证某两个隐含节点每次都同时出现,这样就减少了神经元之间的依赖性,即每个神经元不能依赖于某几个其他的神经元(指层与层之间相连接的神经元),阻止了某些特征仅在有其他特征存在才有效的情况,减少神经元之间复杂的依赖性。

转自:https://baijiahao.baidu.com/s?id=1613121229156499765&wfr=spider&for=pc

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在PyTorch中实现卷积神经网络的正则化通常使用Dropout技术,在训练集和验证集中都要添加。Dropout是一种常用的正则化技术,它可以随机地将一部分神经元的输出设置为0,从而防止过拟合。 在PyTorch中,可以通过在网络中添加`nn.Dropout()`层来实现Dropout。在训练阶段,该层会随机将一些神经元的输出置为0,从而起到正则化的作用。在测试阶段,`nn.Dropout()`层会将所有神经元的输出乘以Dropout概率,以保持输出的期望值不变。 在训练过程中,需要在每个batch前调用`model.train()`函数,以确保Dropout层在训练阶段起作用。在验证或测试过程中,需要在每个batch前调用`model.eval()`函数,以关闭Dropout层。 以下是一个使用Dropout技术进行正则化的卷积神经网络的示例代码: ```python import torch import torch.nn as nn class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 32, kernel_size=3, padding=1) self.conv2 = nn.Conv2d(32, 64, kernel_size=3, padding=1) self.fc1 = nn.Linear(64 * 8 * 8, 512) self.fc2 = nn.Linear(512, 10) self.dropout = nn.Dropout(0.5) # 添加Dropout层,Dropout概率为0.5 def forward(self, x): x = nn.functional.relu(self.conv1(x)) x = nn.functional.max_pool2d(x, 2) x = nn.functional.relu(self.conv2(x)) x = nn.functional.max_pool2d(x, 2) x = x.view(-1, 64 * 8 * 8) x = self.dropout(x) # 在训练阶段启用Dropout x = nn.functional.relu(self.fc1(x)) x = self.dropout(x) # 在训练阶段启用Dropout x = self.fc2(x) return x ``` 在训练过程中,需要在每个batch前调用`net.train()`函数,例如: ```python net = Net() optimizer = torch.optim.SGD(net.parameters(), lr=0.001, momentum=0.9) criterion = nn.CrossEntropyLoss() for epoch in range(num_epochs): net.train() # 启用Dropout for i, (images, labels) in enumerate(train_loader): optimizer.zero_grad() outputs = net(images) loss = criterion(outputs, labels) loss.backward() optimizer.step() net.eval() # 关闭Dropout with torch.no_grad(): correct = 0 total = 0 for images, labels in test_loader: outputs = net(images) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() accuracy = correct / total print('Epoch {}, Test Accuracy: {:.2f}%'.format(epoch+1, accuracy*100)) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值