改善过拟合——丢弃法【dropout】

丢弃法是深度学习中用于缓解过拟合的有效方法,特别是倒置丢弃法。通过以一定概率p将隐藏层单元置零并按比例(1-p)调整非零单元,保持输出期望不变,实现正则化效果。训练时,随机的单元丢弃避免了模型过度依赖特定单元,有助于防止过拟合。建议根据层的位置调整丢弃概率,输入层附近的丢弃概率通常较低。
摘要由CSDN通过智能技术生成

除了权重衰减以外,深度学习模型常常使用丢弃法(dropout) 来应对过拟合问题。
丢弃法有一些不同的变体。下面介绍的丢弃法特指倒置丢弃法(inverted dropout)。

方法描述

对于隐含层的单元来说,以一定的概率被丢弃。
对于某个隐藏单元h来说,以概率p将该单元的输出值置零。丢弃概率是丢弃法的超参数。
同时为了保证本层输出的期望不变,对未被置零的单元做(1-p)的伸缩。
具体来说,设随机变量 ? 为0和1的概率分别为 ? 和 1−? 。使用丢弃法时我们计算新的隐藏单元 h’
h ′ = ξ 1 − p h h'=\frac{\xi }{1-p}h

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值