在深度网络的发展趋势中,提升网络的宽度和深度已经是常规操作,能够解决过拟合,但同时也带来了大量参数的问题,所以减少网络参数也是必要的。在很多网络中,都使用了3个3x3卷积核来代替7x7卷积核,或者使用了2个3x3卷积核来代替5x5卷积核,这样做的主要目的是:(1)在保证具有相同感受野Receptive Field的条件下,增加网络的深度,进而在一定程度上提升神经网络的效果;(2)减少网络的计算参数量。
①以2个3x3卷积对于5x5卷积具有相同感受野为例,
假设图片尺寸为28x28,
首先,使用5x5卷积核对其进行卷积,且stride=1,得到特征图尺寸为:(28-5)/1+1=24。
然后,使用2个3x3卷积核(这里的两个是指2层),stride=1,有:
第一层3x3:得到的结果是(28-3)/1+1=26
第二层3x3:得到的结果是(26-3)/1+1=24
所以,2个3x3卷积后的最终结果和1个5x5的卷积核是一样的。
②说明一下减少网络参数的作用。
对于2个3x3卷积核,所用的参数总量为2x(3x3)xchannels, 对于1个5x5卷积核为5x5xchannels, 因此可以显著地减少参数的数量,可以减少约30%的参数数量。