深度学习tips-降低模型的方差

本文探讨了深度学习中偏差和方差的概念,强调了寻找偏差小、方差适中的模型的重要性。针对方差过大导致的过拟合问题,提出了增加数据集、正则化、dropout和early stopping等降低方差的有效方法。
摘要由CSDN通过智能技术生成

bias和variance在深度学习中是两个不同的概念,一个是偏差,一个是方差,这两个中文名字反而更让人混淆一点。

  • 偏差可以理解为训练出来的模型和真实数据分布的差距。
    例如偏差小,说明模型和真实分布相差不大;偏差很大,说明训练出来的模型和真实分布相差较大。例如只用了一个直线,进行了一个复杂分布的二分类。很明显这个模型的偏差是很大的。

  • 方差很好理解,在数学上就是统计模型离散程度的计量,在深度学习中,我个人把它看做可以代表模型的复杂度,或者说是对数据分布的拟合程度。方差越大,模型就越复杂,也就是说对训练集的拟合程度越好,直至过拟合。

综上所述,我们需要一个偏差小一些,方差也不是太大的“适中”的模型。

如果训练好一个模型之后偏差大,我们可能是选择的算法不好或者是模型不对,需要修改模型。而方差大呢?(过拟合了)

以下是一些降低方差的方法并附上简单解释:

  1. 增加数据集
    最显而易见的办法,模型过拟合了,增加数据集,然而很多时候并不会有我们希望的那么多数据集,所以重点是以下的方法。
    再说一些吴恩达介绍的trick:如果是图像处理,可以把图像反转,或者是在留下重要内容的前提下的变换角度重新剪裁。这样可以成倍增加数据集。

  2. 正则化 regularization
    就是在loss function后边加一个罚项λ||w||22,用来代表模型的复杂度。这个罚项的具体含义是w的L2范式,也就是所有w的平方和。如果λ很大,也就是这个罚项占的比重很大,模

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值