论文地址:Going deeper with convolutions
前言
在ILSVRC2014上最耀眼的除了VGG,那就非GoogLeNet莫属了,它与VGG类似的地方就是,关注于模型的深度,使模型倾向于deeper,与VGG不同的是,它的尝试更加新颖。从2014年至今,GoogLeNet经历了Inception v1到v4,以及Inception-ResNet的发展,也证明了Inception最初思想的潜力。今天我们就来看看GoogLeNet Inception V1的框架和效果。
思想
GoogLeNet的思想动机也是增加模型的规模:深度,和宽度。同样的是,更大的模型意味着更多的参数,计算资源的消耗增加,模型也更容易过拟合,因此并不能盲目的增加模型的规模。
改进
深度,必须增加。那么为了较少模型复杂度,就只能在模型的宽度上做文章。VGG的做法是将每一层的滤波器尺寸都换成 3×3 来减少模型的宽度,也证明具有很好的效果。Inception的做法就是将卷积层的完全连接变成稀疏连接,而且受到生物神经学的启发,利用多个大小不一致的滤波器,在多个尺度上来提取特征,然后再连接到一个共同的输出,这样一方面在不增加参数量的前提下增加了网络的宽度,另一方面也增加了网络对多个尺度的适应性。通过对Inception进行堆叠,构成了一个含有22个权重层的GoogLeNet。
框架结构
对于每一个Inception模块,包含有 1×1