【深度学习】卷积神经网络中Dropout、BatchNorm的位置选择

前言

卷积神经网络的设计自然要考虑到各层之间的顺序。这种“考虑”既有原理性的解释也有经验方面的原因。本文主要介绍一些层常见的位置选择,并对其原因进行分析,从中提取共性有利于其他模型的设计。

Dropout层的位置

Dropout一般放在全连接层防止过拟合,提高模型返回能力,由于卷积层参数较少,很少有放在卷积层后面的情况,卷积层一般使用batch norm。
全连接层中一般放在激活函数层之后,有的帖子说一定放在激活函数后,个人推测是因为对于部分激活函数输入为0输出不一定为0,可能会起不到效果,不过对于relu输入0输出也是0就无所谓了。

BatchNorm

BatchNorm归一化放在激活层前后好像都有,最初LeNet有一种归一化放在了激活层池化层后面,而现在普遍放在激活层前。

bn原文建议放在ReLU前,因为ReLU的激活函数输出非负,不能近似为高斯分布。但有人做了实验,发现影响不大,放在后面好像还好了一点,放在ReLU后相当于直接对每层的输入进行归一化,如下图所示,这与浅层模型的Standardization是一致的。
所以在激活层前还是后还是很难下定论的,只是现在习惯放在激活层前,区别不是很大,区别大的是是否使用bn。
这里做了很多实验,可以参考:https://github.com/ducha-aiki/caffenet-benchmark/blob/master/batchnorm.md

参考资料

https://www.cnblogs.com/shine-lee/p/11989612.html#bn%E5%B1%82%E6%94%BE%E5%9C%A8relu%E5%89%8D%E9%9D%A2%E8%BF%98%E6%98%AF%E5%90%8E%E9%9D%A2%EF%BC%9F

  • 13
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
在 PyTorch ,可以通过 `torch.nn.Dropout` 模块来实现卷神经网络Dropout 操作。下面是一个简单的示例代码: ```python import torch import torch.nn as nn class ConvNet(nn.Module): def __init__(self): super(ConvNet, self).__init__() self.conv1 = nn.Conv2d(1, 16, kernel_size=3, stride=1, padding=1) self.relu = nn.ReLU() self.dropout = nn.Dropout(p=0.5) self.fc = nn.Linear(16 * 28 * 28, 10) def forward(self, x): out = self.conv1(x) out = self.relu(out) out = self.dropout(out) out = out.view(out.size(0), -1) out = self.fc(out) return out # 创建模型实例 model = ConvNet() # 使用 Dropout 模块进行训练 criterion = nn.CrossEntropyLoss() optimizer = torch.optim.SGD(model.parameters(), lr=0.001, momentum=0.9) # 在训练循环使用 Dropout for epoch in range(num_epochs): # ... model.train() for images, labels in train_loader: # ... outputs = model(images) loss = criterion(outputs, labels) # ... # ... model.eval() with torch.no_grad(): for images, labels in test_loader: # ... outputs = model(images) # ... ``` 在上面的示例,我们创建了一个简单的卷神经网络 (`ConvNet`),其包含一个 Dropout 模块 (`nn.Dropout`)。在模型的 `forward` 方法,我们将 Dropout 应用于卷层之后的激活函数之前。 在训练循环,我们使用 `model.train()` 将模型设置为训练模式,这会启用 Dropout 模块的随机失活。而在测试循环,我们使用 `model.eval()` 将模型设置为评估模式,这会禁用 Dropout 模块的随机失活。 请注意,`p` 参数是 Dropout 的丢弃概率,即每个神经元被丢弃的概率。在上面的示例,我们将丢弃概率设置为 0.5。你可以根据自己的需求调整这个值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值