经典网络分析 - VGG
码字不易… 转载请注明出处
论文概述
AlexNet在ILSVRC-2010取得了成功后,人们便尝试通过对AlexNet进行改进,以便取得更好的效果,主要是从两个方面出发:
a. 更小的感受野(卷积核) + 更小的步长
b. Densely Network + 多尺度的训练和多尺度预测
而作者主要关注点是深度对网络的影响。
VGG使用3x3的卷积的堆叠,通过一系列的实验和比较验证了通过提高深度从而使网络性能有了显著的提升。VGG最终将网络深度提升到16-19层,并且在ILSVRC-2014取得了分类任务第二名,目标检查任务第一名的成绩。
所以该篇论文主要关注以下方面:
a. 小卷积核对网络影响
b. 论文中采用的实验方法
c. 网络的最优结构
如果读者之前阅读的论文量不是很大,那么在阅读论文的过程中会对以下一些名称或者方法感到困惑:multi scale training(多尺度训练)、mutil scale evalution(多尺度预测)、mutil crop evalution、 dense evalution、全卷积网络、CONVNET FUSION
技术细节
- 网络结构详解
为了更好的分析深度对卷积神经网络的提升,作者在网络的每一层采用相同的设计原则。
VGG中采用的网络通用配置信息如下:
- 输入数据 224x224 RBG image
- 训练数据中的每一个像素点减去训练集RGB三通道对应的均值。
- 作者在实验中只采用了 3x3 1x1 两种卷积,3x3可以感受周围空间的最小的卷积核, 1x1为模型额外增加了非线性变换
- 采用SAME的卷积方式,在输入数据的四周进行补齐操作,确保输入输出的feature map具有相同的大小
- 采用2x2 stride 2 max pooling
- 卷积层和全连接层都采用Relu激活函数
网络结构分析
如图所示,作者设计了A-E六组实验进行比