经典CNN的实现 InceptionNet
InceptionNet
InceptionNet诞生于2014年,当年ImageNet竞赛冠军,Top5错误率为6.67%
论文出处:Szegedy C, Liu W, Jia Y, et al. Going Deeper with Convolutions. In CVPR, 2015.
InceptionNet旨在通过增加网络的宽度来提升网络的能力,与 VGGNet 通过卷积层堆叠的方式(纵向)相比,是一个不同的方向(横向)。要理解 InceptionNet 的结构,首先要理解它的基本单元:InceptionNet 结构块
:
对于一Inception结构块,它的输入会经过四条路径的运算,然后将四天路径的运算在深度方向堆叠在一起,形成输出。
可以看到的是,InceptionNet 的基本单元中,卷积部分是比较统一的 CBA结构,即 卷积→BN→激活,且激活均采用 Relu 激活函数,同时包含最大池化操作。因此我们可以把CBA封装成一个新的类,ConvBNRelu类,以减少代码量,且易于阅读。
class ConvBNRelu(Model):
# 参数 ch 代表特征图的通道数,也即卷积核个数;kernelsz 代表卷积核尺寸;strides 代表 卷积步长;padding 代表是否进行全零填充。
def __init__(self,ch, kernelsz=3, strides=1, padding='same'):
super(ConvBNRelu, self).__init__()
self.model=tf.keras.Sequential([
Conv2D(ch,kernelsz,strides=strides,padding=padding),
BatchNormalization(),
Activation('relu')
])
def call(self, x):
x = self