深度学习之训练误差和泛化误差

在学习 深度学习的时候,会有不少的专业词语,有些专业词语中,有时很难分清楚。

在之前的文章中,我们常常提到训练集验证集,其中训练集用于算法模型的训练和学习、验证集是对训练模型进行评估。在模型验证集上,不能包含训练集的数据。 假设,我们使用ImageNet作为数据集,再从谷歌上搜索类似的同类的图片,有时候效果会很好,有可能是训练误差,而非泛化误差,因为很多ImageNet上的图片,也是谷歌搜索出来的。

训练误差

训练误差是指, 模型在训练数据集上计算得到的误差,即在训练集上训练完毕后在训练集本身上进行预测得到了错分率。

泛化误差

泛化误差是指, 模型应用在同样从原始样本的分布中抽取的无限多数据样本时,模型误差的期望,即训练集上没见过的数据的错分样本比率。

问题是,我们永远不能准确地计算出泛化误差。 这是因为无限多的数据样本是一个虚构的对象。 在实际中,我们只能通过将模型应用于一个独立的测试集来估计泛化误差, 该测试集由随机选取的、未曾在训练集中出现的数据样本构成。

举个栗子:
在 高中的时候,每到期末考试时,我都会整理和总结本学期和历年考试真题,做的题很多,尽管如此,在考试中,并不能保障每次都很考出好的成绩,因为我只是尝试死记硬背,如果考题正好在我的记忆中,我就会考出好成绩,反之,则很差, 在这种场景下,所有的错题应该叫训练误差。后来,我尝试通过做题,理清楚知识原理,在考试中,遇到没见过的题目,也能通过知识架构梳理出解题思路,该场景下再出错的题目应该叫泛化误差

本号更新很慢,平时也不更新,讲的很琐碎。只是不想让自己囫囵吞枣式学习。我慢慢写,各位老板慢慢看。

关注公众号,解锁更多深度学习内容。

  • 3
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值