F.dropout,nn.Dropout的验证使用,参数training,inplace

F.dropout 是一个函数,参数包含输入的tensor,概率和training 为真还是假。当training 是真的时候,才会将一部分元素置为0,其他元素会乘以 scale 1/(1-p). training 为false的时候,dropout不起作用。默认情况下training是True。

nn.Dropout 是一个类,参数只有两个,概率和inplace,返回的是一个对象,对象的参数是input的tensor,返回的是处理之后的tensor。在构造对象的时候,inplace如果设置成true,那么原来的input 也会发生改变,和输出一样。默认inplace是False。

import torch
import torch.nn as nn
import torch.nn.functional as F

if __name__ == '__main__':

    input = torch.randn(5, 5)

    output1 = F.dropout(input,p=0.5, training = True)
    print(input,'\n' ,output1)
    m = nn.Dropout(p=0.5,inplace=True)
    output2 = m(input)
    # output = m(input)
    print(input,'\n' ,output2,'\n' ,(input==output2))

    output3 = F.dropout(input, p=0.5, training=False)
    print(input, '\n', output3,'\n',(input==output3).all())

输出:

可以看到在第一个tensor的输出部分元素被置为0,未被置为0的元素值 扩大了2倍(1/(1-0.5)).

inplace设置为True,输入会被输出覆盖。training设置为False的时候,输出不发生变化,相当于是identity 矩阵。

tensor([[ 1.2217,  0.0197,  1.6543, -0.2873, -1.8832],
        [ 0.9392, -0.4237,  0.2885, -1.2082,  0.3996],
        [ 1.2309, -0.1735, -0.4891,  0.2473, -1.3866],
        [ 1.1813,  1.4792,  0.1614, -0.3758,  0.4791],
        [ 1.4066,  0.6809,  1.1930, -0.6618,  1.1439]]) 
 tensor([[ 0.0000,  0.0000,  0.0000, -0.0000, -0.0000],
        [ 1.8785, -0.0000,  0.0000, -2.4164,  0.0000],
        [ 2.4619, -0.0000, -0.9783,  0.4946, -2.7733],
        [ 2.3626,  0.0000,  0.0000, -0.7517,  0.0000],
        [ 0.0000,  1.3618,  2.3861, -1.3235,  0.0000]])
tensor([[ 2.4434,  0.0394,  3.3086, -0.5745, -0.0000],
        [ 0.0000, -0.8475,  0.0000, -0.0000,  0.0000],
        [ 0.0000, -0.3470, -0.9783,  0.4946, -2.7733],
        [ 0.0000,  2.9584,  0.0000, -0.0000,  0.9582],
        [ 0.0000,  0.0000,  2.3861, -0.0000,  2.2878]]) 
 tensor([[ 2.4434,  0.0394,  3.3086, -0.5745, -0.0000],
        [ 0.0000, -0.8475,  0.0000, -0.0000,  0.0000],
        [ 0.0000, -0.3470, -0.9783,  0.4946, -2.7733],
        [ 0.0000,  2.9584,  0.0000, -0.0000,  0.9582],
        [ 0.0000,  0.0000,  2.3861, -0.0000,  2.2878]]) 
tensor([[True, True, True, True, True],
        [True, True, True, True, True],
        [True, True, True, True, True],
        [True, True, True, True, True],
        [True, True, True, True, True]])
tensor([[ 2.4434,  0.0394,  3.3086, -0.5745, -0.0000],
        [ 0.0000, -0.8475,  0.0000, -0.0000,  0.0000],
        [ 0.0000, -0.3470, -0.9783,  0.4946, -2.7733],
        [ 0.0000,  2.9584,  0.0000, -0.0000,  0.9582],
        [ 0.0000,  0.0000,  2.3861, -0.0000,  2.2878]]) 
 tensor([[ 2.4434,  0.0394,  3.3086, -0.5745, -0.0000],
        [ 0.0000, -0.8475,  0.0000, -0.0000,  0.0000],
        [ 0.0000, -0.3470, -0.9783,  0.4946, -2.7733],
        [ 0.0000,  2.9584,  0.0000, -0.0000,  0.9582],
        [ 0.0000,  0.0000,  2.3861, -0.0000,  2.2878]]) 
 tensor(True)

  • 12
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: torch.nn.functional.dropout是PyTorch中的一个函数,用于在神经网络中进行dropout操作。dropout是一种正则化技术,可以在训练过程中随机地将一些神经元的输出置为,从而减少过拟合的风险。该函数的输入包括输入张量、dropout概率和是否在训练模式下执行dropout操作。输出为执行dropout操作后的张量。 ### 回答2: torch.nn.functional.dropout是PyTorch中的一个函数,用于实现dropout操作。在深度学习中,dropout是一种常用的正则化技术,通过随机将某些神经元的输出置零,来减少过拟合的风险。 dropout函数的输入参数包括三个:input输入张量、p dropout概率以及training模式。其中,input是一个具有任意形状的张量,p是将输入置零的概率,training标志表示模型当前是否处于训练模式。 dropout的工作原理是对输入张量的每个元素以概率p置零,然后按照比例1/(1-p)放大未置零的元素,以保持期望值不变。这种随机置零的操作,可以看作是在模型中的不同路径间进行了随机选择,从而减少了神经元之间的依赖关系,防止过拟合。 在训练模式下,dropout可以有效地减少神经元间的共适应性,提高模型的泛化能力。而在评估模式下,dropout被关闭,可以利用所有神经元的权重进行预测,得到更准确的结果。 总之,torch.nn.functional.dropout是PyTorch中实现dropout操作的函数。它可以在训练模式下通过随机置零神经元的输出来减少过拟合,在评估模式下则关闭dropout,利用所有神经元进行预测。通过合理配置dropout的概率,可以提高深度学习模型的泛化能力。 ### 回答3: torch.nn.functional.dropout是PyTorch中一个用于进行dropout操作的函数。dropout是深度学习中一种常用的正则化方法,用于防止神经网络过拟合。 在深度学习中,神经网络的过拟合是指训练过程中模型过度拟合训练数据,导致在测试阶段模型表现不佳。为了减少过拟合,dropout通过在训练过程中将一部分神经元设置为0来随机丢弃一些神经元,限制了每个神经元对其他神经元的依赖,从而减少了模型的复杂性。 torch.nn.functional.dropout函数的调用方式为torch.nn.functional.dropout(input, p=0.5, training=True, inplace=False)。 其中,input是输入的特征张量;p是dropout的概率,表示将神经元置为0的概率,默认为0.5;training表示是否在训练阶段使用dropout,默认为True;inplace表示是否原地操作,即是否覆盖输入张量,默认为False。 torch.nn.functional.dropout函数会根据给定的dropout概率随机将输入张量中的某些元素置为0,并进行缩放,以保持期望输入的总和不变。同时,如果training为False,则直接返回输入张量,不进行dropout操作。 总之,torch.nn.functional.dropout函数是PyTorch中用于进行dropout操作的函数,可以一定程度上减小神经网络的过拟合风险。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值