pytorch中torch.nn.dropout和torch.nn.F.dropout区别

其实这二者在功能上并没有本质的区别,如果我们看nn.dropout的代码,我们会发现

class Dropout(_DropoutNd):
	........
    @weak_script_method
    def forward(self, input):
        return F.dropout(input, self.p, self.training, self.inplace)

也就是说其实nn.dropout是调用的F.dropout的函数实现的。

而他们在使用的时候是有区别的。
nn.Dropout派生自nn.Module,通过这样,我们可以把nn.Dropout定义为模型中的一层。所以nn.dropout在模型类的__init__()函数中被定义为一层,而F.dropout在forward()函数中直接使用。
举个简单的例子,例子来自stackoverflow

import torch
import torch.nn as nn

class Model1(nn.Module):
    # Model 1 using functional dropout
    def __init__(self, p=0.0):
        super().__init__()
        self.p = p

    def forward(self, inputs):
        return nn.functional.dropout(inputs, p=self.p, training=True)

class Model2(nn.Module):
    # Model 2 using dropout module
    def __init__(self, p=0.0):
        super().__init__()
        self.drop_layer = nn.Dropout(p=p)

    def forward(self, inputs):
        return self.drop_layer(inputs)
model1 = Model1(p=0.5) # functional dropout 
model2 = Model2(p=0.5) # dropout module

# creating inputs
inputs = torch.rand(10)
print("inputs", inputs)
# forwarding inputs in train mode
print('Normal (train) model:')
print('Model 1', model1(inputs))
print('Model 2', model2(inputs))
print()

# switching to eval mode
model1.eval()
model2.eval()

# forwarding inputs in evaluation mode
print('Evaluation mode:')
print('Model 1', model1(inputs))
print('Model 2', model2(inputs))
# show model summary
print('Print summary:')
print(model1)
print(model2)

输出结果:

inputs tensor([0.6773, 0.4399, 0.0696, 0.6631, 0.7012, 0.9417, 0.5610, 0.3946, 0.5692,
        0.8952])
Normal (train) model:
Model 1 tensor([0.0000, 0.0000, 0.0000, 0.0000, 1.4023, 1.8834, 0.0000, 0.7891, 1.1385,
        0.0000])
Model 2 tensor([1.3545, 0.8799, 0.0000, 1.3261, 0.0000, 1.8834, 0.0000, 0.7891, 0.0000,
        1.7904])

Evaluation mode:
Model 1 tensor([0.0000, 0.8799, 0.0000, 0.0000, 1.4023, 0.0000, 1.1219, 0.7891, 1.1385,
        0.0000])
Model 2 tensor([0.6773, 0.4399, 0.0696, 0.6631, 0.7012, 0.9417, 0.5610, 0.3946, 0.5692,
        0.8952])
Print summary:
Model1()
Model2(
  (drop_layer): Dropout(p=0.5)
)

可以看到,如果使用的是F.dropout,那么在model.eval的时候如果没有对dropout
函数进行调整的话,还是会对输入进行dropout的操作,但是nn.dropout就帮你完成了这一步。这里可以这么使用F.dropout,就跟nn.dropout效果一样

nn.functional.dropout(inputs, p=self.p, training=self.training)

所以这里其实就根据个人喜好来使用nn.dropout或者F.dropout,有一些观点认为nn.dropout更好,理由如下:

  • Dropout被设计为只在训练中使用,所以当你对模型进行预测或评估时,你需要关闭Dropout。nn.dropout可以方便地处理这个问题,在模型进入eval时立即关闭Dropout,而F.dropout并care你是什么模式。
  • 分配给模型的所有模块都在模型中注册。所以模型类跟踪它们,这就是为什么可以通过调用eval()关闭dropout模块。当使用F.dropout时,您的模型并不知道它,所以模型的summary中也不会出现dropout模块
  • 43
    点赞
  • 64
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
### 回答1: torch.nn.functional.dropout是PyTorch的一个函数,用于在神经网络进行dropout操作。dropout是一种正则化技术,可以在训练过程随机地将一些神经元的输出置为,从而减少过拟合的风险。该函数的输入包括输入张量、dropout概率和是否在训练模式下执行dropout操作。输出为执行dropout操作后的张量。 ### 回答2: torch.nn.functional.dropout是PyTorch的一个函数,用于实现dropout操作。在深度学习dropout是一种常用的正则化技术,通过随机将某些神经元的输出置零,来减少过拟合的风险。 dropout函数的输入参数包括三个:input输入张量、p dropout概率以及training模式。其,input是一个具有任意形状的张量,p是将输入置零的概率,training标志表示模型当前是否处于训练模式。 dropout的工作原理是对输入张量的每个元素以概率p置零,然后按照比例1/(1-p)放大未置零的元素,以保持期望值不变。这种随机置零的操作,可以看作是在模型的不同路径间进行了随机选择,从而减少了神经元之间的依赖关系,防止过拟合。 在训练模式下,dropout可以有效地减少神经元间的共适应性,提高模型的泛化能力。而在评估模式下,dropout被关闭,可以利用所有神经元的权重进行预测,得到更准确的结果。 总之,torch.nn.functional.dropout是PyTorch实现dropout操作的函数。它可以在训练模式下通过随机置零神经元的输出来减少过拟合,在评估模式下则关闭dropout,利用所有神经元进行预测。通过合理配置dropout的概率,可以提高深度学习模型的泛化能力。 ### 回答3: torch.nn.functional.dropout是PyTorch一个用于进行dropout操作的函数。dropout是深度学习一种常用的正则化方法,用于防止神经网络过拟合。 在深度学习,神经网络的过拟合是指训练过程模型过度拟合训练数据,导致在测试阶段模型表现不佳。为了减少过拟合,dropout通过在训练过程将一部分神经元设置为0来随机丢弃一些神经元,限制了每个神经元对其他神经元的依赖,从而减少了模型的复杂性。 torch.nn.functional.dropout函数的调用方式为torch.nn.functional.dropout(input, p=0.5, training=True, inplace=False)。 其,input是输入的特征张量;p是dropout的概率,表示将神经元置为0的概率,默认为0.5;training表示是否在训练阶段使用dropout,默认为True;inplace表示是否原地操作,即是否覆盖输入张量,默认为False。 torch.nn.functional.dropout函数会根据给定的dropout概率随机将输入张量的某些元素置为0,并进行缩放,以保持期望输入的总和不变。同时,如果training为False,则直接返回输入张量,不进行dropout操作。 总之,torch.nn.functional.dropout函数是PyTorch用于进行dropout操作的函数,可以一定程度上减小神经网络的过拟合风险。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值