图像分类任务的trick总结

针对图像分类,提升准确率的方法有两个:1.修改模型;2.各种数据处理和训练的技巧
图像分类中的技巧对于目标检测,图像分割也有很好的作用

Warmup

warm up是resnet论文中提到的一种学习率预热的方法。由于刚开始训练模型的权重是随机初始化的,这里权重不能全部置为零,置为零的话,网络中的每个神经元都计算相同的输出,那么它们在反向传播时也会计算相同的梯度,并经历完全相同的参数更新。如果随机初始化的模型参数使用一个较大的学习率的话,会带来模型的不稳定。学习率预热就是在刚开始训练的时候选用一个较小的学习率,等模型稳定之后再修改为预先设置的学习率进行训练。但是如果突然从小学习率变成大学习率会导致训练误差突然变大,所以又提出了gradual warmup来解决这个问题:每个iteration增大一点,直到最初设置的比较大的学习率。

Linear scaling learning rate

这是针对较大batch size提出的方法。
在凸优化问题中,随着批量的增加,收敛速度会降低,神经网络也有类似的实证结果。随着batch size的增大,处理相同数据量的速度会越来越快,但是达到相同精度所需要的epoch数量会越来越多:一个epoch表示迭代完全部数据集,batch size越大,迭代完一个epoch所需的iteration就越小,梯度更新的速度也越小。所以相同epoch,大batch size的模型比小batch size模型的验证准确率小。
gradual warmup可以解决此问题,另外linear scaling learning rate也是有效的方法。在mi

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值