目录
-
VGG论文
-
tensorflow网络实现
-
VGG fine-tune(vgg fine-tuning)
-
总结
VGG 论文
1. 前言
论文标题为Very Deep Convolutional Networks For Large-scale Image Recognition。从标题可以看出作者主要是从网络的深度入手,研究大量数据的图像识别任务中网络的深度对精确度的影响。由于此论文是由Oxford Visual Geometry Group提出的,因此被成为VGG网络。此网络在2014年ImageNet的图像分类竞赛中是第二名,在图像定位竞赛中是第一名。
2. 网络模型
为了评估网络深度对精确度的影响,要固定网络的部分结构。
- Input 224x224x3 RGB图片,预处理用训练的图片减去所有训练图片算出来的RGB均值
- Convolution有1x1和3x3两种。1x1的Conv进行降维并且增加非线性,3x3的Conv代替7x7减少参数。stride都为1,padding为same
- 5个2x2 max pool层,stride为2,降低图片size,224x224 -> 7x7
- 最后3层都是FC
- 每一个隐藏层都使用Relu激活
作者尝试了6种网络结构,下图展示
测试下来,效果最好的是D和E两种结构。数一下网络层数可知D是16层,E为19层,就是我们一般所说的VGG-16和VGG-19,下图以VGG-19为例显示网络结构。
另外作者还提到了用3x3卷积核来替代5x5和7x7卷积核的原因。因为两个3x3的卷积核可以达到5x5的卷积核的效果,三个3x3的卷积核能够达到7x7的卷积核的效果,但是参数数量会大大减少。举个例子:如果输入一张5x5x3的图片,经过两次3x3的卷积运算可以得到1x1x1的结果,跟经过一次5x5的卷积运算效果一样。但是前者参数量只有后者的18/25倍。如果用三个3x3的卷积核参数量只有用7x7的卷积核的27/49倍。论文中提到的是7x7的参数量比用3x3的多了81%(49/27-1). 而且我们用两个或者三个3x3的卷积核就增加几次非线性激励ÿ