01_训练深度神经网络时验证损失可能低于训练损失的三个原因

中文版链接

洋文版链接

原因1-在训练中应用正则化(加了正则项),但在验证/测试中未应用正则化
正则化方法通常会牺牲训练准确性来提高验证/测试准确性——在某些情况下,可能导致验证loss低于训练loss。
原因2-训练loss是在每个epoch测量的,而验证loss是在每个epoch后测量的
在整个epoch内,您的训练loss将不断得到报告;但是,仅在当前训练epoch完成后,才根据验证集计算验证指标。
这意味着,平均而言,训练loss要提前半个epoch来衡量
在这里插入图片描述
原因3-验证集可能比训练集更容易,或者代码中的数据/错误泄漏。确保验证集大小合理,并且是从训练集相同的分布(和难度)中抽取的。

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值