Rethinking ImageNet Pre-training

论文:Rethinking ImageNet Pre-training 

Github:https://github.com/facebookresearch/Detectron

 

恺明大神一作的论文,必读的论文。

 

贡献:

  1. ImageNet 预训练可以加速收敛,尤其是在训练早期,但是随机初始化训练在经过更多次的迭代后,也可以达到相同的精度。
  2. ImageNet 预训练并没有增加更好的正则化
  3. ImageNet 预训练对于检测任务没有任何帮助

 

 

论文颠覆了传统的预训练,微调的思想,然后提出了随机初始化训练也可以达到同样的精度。并实验进行了验证。包括下面3种方式都取得了和预训练一样的精度。

  1. 只使用10%的训练数据
  2. 使用更深更宽的模型
  3. 多任务训练和度量

2点训练改进:

  1. 使用Group Normalization (GN) 归一化方法,因为对于检测任务的训练,每个显卡能吃的图片很少,BN对batchsize要求较大,但是GN对batchsize不敏感。
  2. 使用异步BN,Synchronized Batch Normalization (SyncBN) ,将多机器多卡的图片计算BN。

 

实验结果:

总结:

  1. 不需要网络结构的改变,就可以在目标任务上随机初始化训练
  2. 随机初始化训练需要更多的迭代才能保证收敛
  3. 即使只使用1/10的训练数据,训练结果精度也不会比使用ImageNet预训练的结果精度要差
  4. ImageNet预训练可以加快在目标任务的收敛
  5. ImageNet预训练不能减少过拟合,除非在很少的目标数据集上
  6. ImageNet预训练对分类任务比对检测任务帮助的多
  7. Is ImageNet pre-training necessary? No
  8. Is ImageNet helpful? Yes
  9. Do we need big data? Yes
  10. Shall we pursuit universal representations? Yes

 

 

 

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值