Do Better ImageNet Models Transfer Better?
ImageNet 受到热烈追捧,基于这个数据集测量的网络体系结构推动了计算机视觉的研究在一系列广泛的问题上取得了很大的进展,包括转移到新的数据集,目标检测,图像分割和图像的感知度量。这一进展背后的一个隐含假设是,在ImageNet上性能更好的网络架构必然在其他视觉任务上的性能更好,另一个假设是更好的网络结构学习更好的特性,可以在基于视觉的任务之间传递。
我们对16个现代卷积神经网络的迁移学习进行了大规模研究,在3个不同的实验环境中对12个图像分类数据集进行了图像分类,从ImageNet初始化中fine-tuned,并从随机初始化中训练。
我们的主要贡献如下:
1.更好的ImageNet网络为具有线性分类的迁移学习提供了更好的倒数第二层特性特征,并在fine-tuned时提供了更好的性能。
2.正则化可以提升ImageNet性能,但对基于倒数第二层特性的迁移学习非常不利。
3.即使没有权重,结构体系也能很好地跨任务传输。在两个小的细粒度分类数据集上,fine-tuned并不能在随机初始化的训练中提供实质性的好处,但是更好的ImageNet架构仍然获得了更高的精度。
4.6. ImageNet pretraining accelerates convergence