AlphaDropout

AlphaDropout 是一种用于神经网络的正则化技术,特别是在线性层和卷积层之后使用,以防止过拟合。它与 SELU 激活函数结合使用,确保输出具有0均值和单位标准差,保持数据的自规范性。在训练期间,AlphaDropout 会按伯努利分布随机丢弃一部分输入元素,并在评估时关闭以保持模型的稳定性。此方法有助于提高模型泛化能力。
摘要由CSDN通过智能技术生成

目的:防止过拟合,般用在线性层和卷积层后面

基础知识:伯努利分布(Bernoulli distribution)又名两点分布或0-1分布

  • AlphaDropout
    • AlphaDropout是一种保持 self-normalizing 属性的Dropout。对于一个0均值和单位标准差的输入,AphaDropout的输出保持输入的均值和标准差不变。
    • AlphaDropout和SELU激活函数一起使用,保证了输出是0均值和单位标准差。
    • 训练过程中,AlphaDropout会以从伯努利分布中采样到的概率p使一些元素置零。每次前向调用过程中,保留的元素都是随机且会进行缩放和移位以保持0均值和单位标准差。
    • 在评估过程中该模块都是仅仅计算一个恒等函数(评估过程中不进行Dropout)。
    • 更多细节可在论文Self-Normalization Neural Networks(https://arxiv.org/abs/1706.02515)中找到。
    • 参数
      • p - 元素被置零的概率,默认为0.5
      • inplace - 如果设置为True,将会就地执行该操作
    • 形状
      • 输入:输入可以是任意形状
      • 输出:输出和输入的形状相同

对输入施加Alpha Dropout, 是一种保持输入均值和方差不变的Dropout,该层的作用是即使在dropout时也保持数据的自规范性。 通过随机对负的饱和值进行激活。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值