经典网络分析 - Very Deep Convolutional Networks for Large-Scale Image Recognition(VGG)

本文深入分析经典卷积神经网络VGG,探讨小卷积核与网络深度对性能的影响。VGG通过堆叠3x3卷积层,证明深度提升能显著改善网络性能。实验表明,多尺度训练和预测可进一步增强模型效果,而模型融合能有效提高准确性。VGG在ILSVRC-2014中取得优异成绩。
摘要由CSDN通过智能技术生成

经典网络分析 - VGG

码字不易… 转载请注明出处

论文概述

AlexNet在ILSVRC-2010取得了成功后,人们便尝试通过对AlexNet进行改进,以便取得更好的效果,主要是从两个方面出发:
a. 更小的感受野(卷积核) + 更小的步长
b. Densely Network + 多尺度的训练多尺度预测
而作者主要关注点是深度对网络的影响。

VGG使用3x3的卷积的堆叠,通过一系列的实验和比较验证了通过提高深度从而使网络性能有了显著的提升。VGG最终将网络深度提升到16-19层,并且在ILSVRC-2014取得了分类任务第二名,目标检查任务第一名的成绩。

所以该篇论文主要关注以下方面:
a. 小卷积核对网络影响
b. 论文中采用的实验方法
c. 网络的最优结构

如果读者之前阅读的论文量不是很大,那么在阅读论文的过程中会对以下一些名称或者方法感到困惑:multi scale training(多尺度训练)mutil scale evalution(多尺度预测)mutil crop evalutiondense evalution全卷积网络CONVNET FUSION

技术细节

  1. 网络结构详解
    为了更好的分析深度对卷积神经网络的提升,作者在网络的每一层采用相同的设计原则。

VGG中采用的网络通用配置信息如下:

  • 输入数据 224x224 RBG image
  • 训练数据中的每一个像素点减去训练集RGB三通道对应的均值。
  • 作者在实验中只采用了 3x3 1x1 两种卷积,3x3可以感受周围空间的最小的卷积核, 1x1为模型额外增加了非线性变换
  • 采用SAME的卷积方式,在输入数据的四周进行补齐操作,确保输入输出的feature map具有相同的大小
  • 采用2x2 stride 2 max pooling
  • 卷积层和全连接层都采用Relu激活函数

网络结构分析
在这里插入图片描述
如图所示,作者设计了A-E六组实验进行比

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值