防止过拟合的方法--正则化、Dropout

正则化

两种形式

正则化分为两种形式L1正则化和L2正则化。
L1正则化计算公式如下:
在这里插入图片描述
L2正则化计算公式如下:
在这里插入图片描述
上面的两种正则化函数都是用来刻画模型的复杂程度,在优化损失时,优化的是J(θ)+λR(w),λ表示模型复杂度在总损失中所占的比例。

基本思想

正则化的基本思想是通过限制权重的大小,使模型不能任意模拟训练数据的噪音。

Dropout

Dropout说的简单一点就是:我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征,如下图所示。
随机去掉不同的隐藏神经元就类似在训练不同的网络,整个dropout过程就相当于对很多个不同的神经网络取平均。而不同的网络产生不同的过拟合,一些互为“反向”的拟合相互抵消就可以达到整体上减少过拟合。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值