深度学习-Dropout、L1、L2

Dropout是在前向传播时,让某个神经元以一定概率p停止工作,可以加强模型的泛化能力,不依赖某些局部特征,解决过拟合问题:取平均的作用、减少神经元之间复杂的共适应关系、Dropout类似于性别在生物进化中的角色。

 为了保证训练和预测过程一致。经过上面屏蔽掉某些神经元,使其激活值为0以后,我们还需要对向量y1……y1000进行缩放,也就是乘以1/(1-p)。如果你在训练的时候,经过置0后,没有对y1……y1000进行缩放(rescale),那么在测试的时候,就需要对权重进行缩放(缩小p)。10个人拉一个10吨车,第一次(训练时),只有5个人出力(有p=0.5的人被dropout了),那么这5个人每个人出力拉2吨(扩大1/1-p)。第二次(预测时),10个人都被要求出力,这次每个人出的力就是2*(1-0.5)(缩小p)=1吨了

如何解决过拟合问题?L1、L2正则化及Dropout正则化讲解_哔哩哔哩_bilibili

减少参数的大小范围,从而减少参数复杂度。

w只是一个上下偏移量。

L1:保证菱形面积、原曲线面积最小,发现切点在坐标轴上,所以会有很多的稀疏解。

L2:保证圆形面积、原曲线面积最小,发现切点在靠近坐标轴,所以解会比较圆滑,靠近0。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值