【Pytorch】torch.nn.Dropout()的两种用法:防止过拟合 & 数据增强

Dropout方法是一种在训练模型时被广泛应用的trick,目的是防止模型过拟合,原理是使网络中某一层的每个参数以一定概率被mask(变为0),只用剩下的参数进行训练,从而达到防止模型过拟合的目的。
在这里插入图片描述

以Pytorch中的实现为例,我们常用torch.nn.Dropout(p=0.5, inplace=False)方法实现,它调用的底层函数是torch.nn.functional.dropout(),官方源码见文章末尾。

在使用时,根据情况的不同,主要有以下两种用法:

1. 在搭建网络时使用,防止过拟合

在搭建网络时,一般将dropout层放于全连接层(nn.Linear)之后,用于在训练时将全连接层中参数以一定概率进行丢弃,以防止过拟合。在使用时有以下几点需注意:

  1. dropout方法是用于训练的,因此在pytorch中,nn.Dropout()层只在model.train()模型下有效,在model.eval()模式下会自动失效
  2. 参数p,表示每个神经元以一定概率处于不激活的状态,默认为0.5
  3. 在训练时,nn.Dropout()不仅对每个神经元参数以一定概率变为0,还会将剩下不为0的参数进行rescale(缩放),目的是为了保持期望不变,缩放比例是1/(1-p)
  4. nn.Dropout()的输入可以是任意形状,输出的形状与输入形状相同

2. 对输出张量使用,用于数据增强

对于网络中某一层输出的张量,也可以对其使用nn.dropout()方法,这样可以使张量中每个元素以一定概率为0,从而模拟现实中数据缺失的情况,以达到数据增强的目的。并且,对于不归0的元素,会缩放为原来的1/(1-p)倍。
在这里插入图片描述

官方代码如下:

class Dropout(_DropoutNd):
    r"""During training, randomly zeroes some of the elements of the input
    tensor with probability :attr:`p` using samples from a Bernoulli
    distribution. Each channel will be zeroed out independently on every forward
    call.

    This has proven to be an effective technique for regularization and
    preventing the co-adaptation of neurons as described in the paper
    `Improving neural networks by preventing co-adaptation of feature
    detectors`_ .

    Furthermore, the outputs are scaled by a factor of :math:`\frac{1}{1-p}` during
    training. This means that during evaluation the module simply computes an
    identity function.

    Args:
        p: probability of an element to be zeroed. Default: 0.5
        inplace: If set to ``True``, will do this operation in-place. Default: ``False``

    Shape:
        - Input: :math:`(*)`. Input can be of any shape
        - Output: :math:`(*)`. Output is of the same shape as input

    Examples::

        >>> m = nn.Dropout(p=0.2)
        >>> input = torch.randn(20, 16)
        >>> output = m(input)

    .. _Improving neural networks by preventing co-adaptation of feature
        detectors: https://arxiv.org/abs/1207.0580
    """

    def forward(self, input: Tensor) -> Tensor:
        return F.dropout(input, self.p, self.training, self.inplace)
  • 6
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: torch.nn.functional.dropoutPyTorch中的一个函数,用于在神经网络中进行dropout操作。dropout是一种正则化技术,可以在训练过程中随机地将一些神经元的输出置为,从而减少过的风险。该函数的输入包括输入张量、dropout概率和是否在训练模式下执行dropout操作。输出为执行dropout操作后的张量。 ### 回答2: torch.nn.functional.dropoutPyTorch中的一个函数,用于实现dropout操作。在深度学习中,dropout是一种常用的正则化技术,通过随机将某些神经元的输出置零,来减少过的风险。 dropout函数的输入参数包括三个:input输入张量、p dropout概率以及training模式。其中,input是一个具有任意形状的张量,p是将输入置零的概率,training标志表示模型当前是否处于训练模式。 dropout的工作原理是对输入张量的每个元素以概率p置零,然后按照比例1/(1-p)放大未置零的元素,以保持期望值不变。这种随机置零的操作,可以看作是在模型中的不同路径间进行了随机选择,从而减少了神经元之间的依赖关系,防止。 在训练模式下,dropout可以有效地减少神经元间的共适应性,提高模型的泛化能力。而在评估模式下,dropout被关闭,可以利用所有神经元的权重进行预测,得到更准确的结果。 总之,torch.nn.functional.dropoutPyTorch中实现dropout操作的函数。它可以在训练模式下通过随机置零神经元的输出来减少过,在评估模式下则关闭dropout,利用所有神经元进行预测。通过理配置dropout的概率,可以提高深度学习模型的泛化能力。 ### 回答3: torch.nn.functional.dropoutPyTorch中一个用于进行dropout操作的函数。dropout是深度学习中一种常用的正则化方法,用于防止神经网络过。 在深度学习中,神经网络的过是指训练过程中模型过度训练数据,导致在测试阶段模型表现不佳。为了减少过dropout通过在训练过程中将一部分神经元设置为0来随机丢弃一些神经元,限制了每个神经元对其他神经元的依赖,从而减少了模型的复杂性。 torch.nn.functional.dropout函数的调用方式为torch.nn.functional.dropout(input, p=0.5, training=True, inplace=False)。 其中,input是输入的特征张量;p是dropout的概率,表示将神经元置为0的概率,默认为0.5;training表示是否在训练阶段使用dropout,默认为True;inplace表示是否原地操作,即是否覆盖输入张量,默认为False。 torch.nn.functional.dropout函数会根据给定的dropout概率随机将输入张量中的某些元素置为0,并进行缩放,以保持期望输入的总和不变。同时,如果training为False,则直接返回输入张量,不进行dropout操作。 总之,torch.nn.functional.dropout函数是PyTorch中用于进行dropout操作的函数,可以一定程度上减小神经网络的过风险。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值