理解神经网络中的Dropout

Dropout是一种有效的正则化方法,通过在训练过程中随机关闭神经网络的一部分来防止过拟合。它既可以视为减弱特征间协同作用的手段,也可以被视为多模型效果的平均。在训练时,每个神经元以50%的概率被丢弃,而在测试时,所有神经元的输出会被乘以保留概率以模拟多个模型的平均效果。尽管训练时间增加,但测试阶段不受影响。Dropout常与L2正则化结合使用,调整学习率以优化训练过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。

过拟合是深度神经网(DNN)中的一个常见问题:模型只学会在训练集上分类,这些年提出的许多过拟合问题的解决方案,其中dropout具有简单性而且效果也非常良好。

算法概述

我们知道如果要训练一个大型的网络,而训练数据很少的话,那么很容易引起过拟合,一般情况我们会想到用正则化、或者减小网络规模。然而Hinton在2012年文献:《Improving neural networks by preventing co-adaptation of feature detectors》提出了,在每次训练的时候,随机让一半的特征检测器停过工作,这样可以提高网络的泛化能力,Hinton又把它称之为dropout。

第一种理解方式是,在每次训练的时候使用dropout,每个神经元有百分之50的概率被移除,这样可以使得一个神经元的训练不依赖于另外一个神经元,同样也就使得特征之间的协同作用被减弱。Hinton认为,过拟合可以通过阻止某些特征的协同作用来缓解。

第二种理解方式是,我们可以把dropout当做一种多模型效果平均的方式。对于减少测试集中的错误,我们可以将多个不同神经网络的预测结果取平均,而因为dropout的随机性,我们每次dropout后,网络模型都可以看成是一个不同结构的神经网络,而此时要训练的参数数目却是不变的,这就解脱了训练多个独立的不同神经网络的时耗问题。在测试输出的时候,将输出权重除以二,从而达到类似平均的效果。

需要注意的是如果采用dropout,训练时间大大延长,但是对测试阶段没影响。

带dropout的训练过程

而为了达到ensemble的特性,有了dropout后,神经网络的训练和预测就会发生一些变化。在这里使用的是dropout以 p 的概率舍弃神经元

训练层面

这里写图片描述

对应的公式变化如下如下:

没有dropout的神经网络

zl+1i=wl+1iyl+bl+1iyl+1i=f(zl+1i)

有dropout的神经网络

rjjBernoulli(p)y~l=rlylzl+1i=wl+1iy~l+bl+1iyl+1i=f(zl+1i)

无可避免的,训练网络的每个单元要添加一道概率流程。

测试层面

预测的时候,每一个单元的参数要预乘以p。

这里写图片描述

除此之外还有一种方式是,在预测阶段不变,而训练阶段改变。

Inverted Dropout的比例因子是 11p

rjjBernoulli(p)y~l=rlylzl+1i=wl+1iy~l+bl+1iyl+1i=11pf(zl+1i)

关于这个比例我查了不少资料,前面的是论文的结论;后面是keras源码中dropout的实现。有博客写的公式不一致,我写了一个我觉得是对的版本。

Dropout与其它正则化

Dropout通常使用L2归一化以及其他参数约束技术。正则化有助于保持较小的模型参数值。

w=wη(f(W;x)w+λw)

使用Inverted Dropout后,上述等式变为:

w=wη(11pf(W;x)w+λw)

可以看出使用Inverted Dropout,学习率是由因子 q=1p 进行缩放 。由于q在[0,1]之间, η 和q之间的比例变化:

r(q)=ηq[η=limq1r(q),+=limq0r(q)]

参考文献将q称为推动因素,因为其能增强学习速率,将r(q)称为有效的学习速率。

有效学习速率相对于所选的学习速率而言更高:基于此约束参数值的规一化可以帮助简化学习速率选择过程。


评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值