2018.12.04——交叉验证,val

观察validation的loss和train的loss定下你需要的模型

问题:

caffe 制作一个项目的数据集是不是应该分成三分:train、val、test。训练模型的时候train_val.prorotxt中train部分的文件路径是train集的,test部分的路径是val集的。而模型调参完毕训练完后想测试一下准确率,此时train_val.prorotxt中test部分的文件路径应该换成test集的。这样理解对么?为什么网上很多教程都只制作了train和test的,把val的忽略了呢?没有val怎么得到好的模型啊?

答案:

你要知道val是validation的简称。

training dataset是网络模型在训练的时候用的,而validation dataset是网络模型在训练过程中测试用的,val是不影响训练的。
training dataset和 validation dataset都是在训练的时候起作用。
而因为validation的数据集和training没有交集,所以validation这部分数据对最终训练出的模型没有贡献。
validation的主要作用是来验证是否过拟合、以及用来调节训练参数等。
 
比如你训练0-10000次迭代过程中,train和validation的loss都是不断降低
但是从10000-20000过程中train loss不断降低, validation的loss不降反升。
那么就证明继续训练下去,模型只是对training dataset这部分拟合的特别好,但是泛化能力很差。
所以与其选取20000次的结果,不如选择10000次的结果。
这个过程的名字叫做 Early Stop, validation数据在此过程中必不可少。

总结:在训练的时候可以得到train和val这两个数据集的误差率。val是在训练过程中用于测试(但不影响训练),test是训练完成之后用于测试。
 
如果你去跑caffe自带的训练demo,你会用到train_val.prototxt,这里面的val其实就是validation。
而网络输入的test层,其实就是validation,而不是test。你可以通过观察validation的loss和train的loss定下你需要的模型。

但是为什么现在很多人都不用validation了呢?
我的理解是现在模型中防止过拟合的机制已经比较完善了,Dropout\BN等做的很好了。
而且很多时候大家都用原来的模型进行fine tune,也比从头开始更难过拟合。
所以大家一般都定一个训练迭代次数,直接取最后的模型来测试。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值