How to design DL model(2):Inception(v4)-ResNet and the Impact of Residual Connections on Learning

转载自: http://www.jianshu.com/p/329d2c0cfca9


Google Research的Inception模型和Microsoft Research的Residual Net模型两大图像识别杀器结合效果如何?在这篇2月23日公布在arxiv上的文章“Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning”给出了实验上的结论。

在该论文中,姑且将ResNet的核心模块称为residual connections,实验结果表明,residual connections可以提高Inception网络的准确率,并且不会提高计算量。这似乎是理所当然的。采用3个带有residual connection的Inception模型和1个Inception v4模型,ImageNet上的top 5错误率已经可以刷到3.08%啦。也就是说,错误率2.x%的时代已经指日可待了。

关于深度卷积神经网络的发展以及在各种视觉任务上的优异表现就不用赘述了。在讨论related work中,本文认为residual connection并不是训练very deep network的必要条件,但可以显著的加快训练的速度。

同时,本文回顾了Inception模型的发展历程,原始的Inception模型,也就是GoogLeNet被称为Inception-v1,加入batch normalization之后被称为Inception-v2,加入factorization的idea之后,改进为Inception-v3。

Google Research从DistBelief过渡到TensorFlow之后,不用再顾虑分布式训练时要做模型的分割。Inception-v4模型设计的可以更简洁,计算量也更小。具体的模型如下图:


inception-v4 网络模型

其中的Inception-A模块是这样的:



Inception-A模块网络结构

接下来将介绍重头戏,Inception-ResNet,其中的一个典型模块是这样的:



Inception-ResNet-A网络结构

其中的+就是residual connection了。通过20个类似的模块组合,Inception-ResNet构建如下:



Inception-ResNet模型

基于Inception-v3和Inception-v4,文中分别得到了Inception-ResNet-v1和Inception-ResNet-v2两个模型。另外,文中还提到当卷积核超过1000个的大网络训练时,将残差(residuals)缩小有助于训练的稳定性。这个做法同原始ResNet论文中的two-phase training的效果类似。

实验结果:



单个模型,144 crops,ILSVRC 2012 validation set上的结果



模型组合,144 crops,ILSVRC 2012 validation set上的结果

总结来讲,Google Research团队在这篇report中介绍了新的Inception-v4网络,并结合最新的residual connection技术,将ImageNet上图像分类的结果刷到了3.08%了。

[1] Christian Szegedy,Sergey Ioffe,Vincent Vanhoucke. Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning. arXiv:1602.07261[cs.CV]

阅读更多

没有更多推荐了,返回首页