Do Better ImageNet Models Transfer Better?

Do Better ImageNet Models Transfer Better?

ImageNet 受到热烈追捧,基于这个数据集测量的网络体系结构推动了计算机视觉的研究在一系列广泛的问题上取得了很大的进展,包括转移到新的数据集,目标检测,图像分割和图像的感知度量。这一进展背后的一个隐含假设是,在ImageNet上性能更好的网络架构必然在其他视觉任务上的性能更好,另一个假设是更好的网络结构学习更好的特性,可以在基于视觉的任务之间传递。

我们对16个现代卷积神经网络的迁移学习进行了大规模研究,在3个不同的实验环境中对12个图像分类数据集进行了图像分类,从ImageNet初始化中fine-tuned,并从随机初始化中训练。

我们的主要贡献如下:

1.更好的ImageNet网络为具有线性分类的迁移学习提供了更好的倒数第二层特性特征,并在fine-tuned时提供了更好的性能。

2.正则化可以提升ImageNet性能,但对基于倒数第二层特性的迁移学习非常不利。

3.即使没有权重,结构体系也能很好地跨任务传输。在两个小的细粒度分类数据集上,fine-tuned并不能在随机初始化的训练中提供实质性的好处,但是更好的ImageNet架构仍然获得了更高的精度。

4.6. ImageNet pretraining accelerates convergence

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值