Pytorch: nn.dropout

Dropout 是一种用于深度学习模型的正则化技术,旨在减少模型对特定训练样本的过度拟合。其主要作用包括:

  1. 减少过拟合: Dropout 阻止神经网络对某些特定输入值过度依赖,从而提高模型的泛化能力。通过随机地失活神经元(将其输出设为零),模型在训练期间不会过度依赖于任何一个神经元,减少了复杂模型在训练数据上的过拟合风险。

  2. 提高模型的鲁棒性: Dropout 可以使模型对输入的微小变化更加鲁棒,因为模型不会过分依赖于特定的输入特征。

类似半监督,有点数据增强的味道。

示例:

import torch
import torch.nn as nn

# 定义一个具有随机失活的模块
dropout = nn.Dropout(p=0.5)

# 输入张量
input_tensor = torch.randn(3, 5)

# 应用随机失活
output = dropout(input_tensor)

 默认定义的参数为0.5,可自行设置炼丹。此外,默认是在dim=1维度上进行抑制,如果有问题可自行定义失活的维度,或者检查自己的维度转换是否有问题。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值