VGG网络详解及感受野的计算

参考b站视频链接
下图是VGG的6个配置,常使用D配置
在这里插入图片描述

网络亮点:

  • 通过堆叠3*3的卷积核来替代大尺度卷积核(减少所需参数)
  • 可以堆叠2个33的卷积核代替55的卷积核,堆叠3个33的卷积核来替代77的卷积核

拥有相同的感受野

感受野概念:(receptive field)

输出feature map上的一个单元对应输入层上的区域大小。

在这里插入图片描述

4=(9-3)/2+1
2=(4-2)/2+1

感受野计算公式:
F(i)=(F(i+1)-1)*stride+Ksize

  • F(i)为第i层的感受野
  • stride为第I层步距
  • ksize为卷积核或池化核尺寸

feature map: F=1
pool1 : F=(1-1)2+2=2
conv1: F=(2-1)2+3=5
下面我们来验证VGG网络中的结论:
(VGG中stride默认为1)
Feature map: F=1
conv3
3(3): F(1-1)1+3=3
conv3
3(2): F(3-1)1+3=5
conv3
3(1): F(5-1)1+3=7
真的会减少所需参数嘛?
(假设输入输出channel为C,即卷积核的深度和组数)
卷积核宽
卷积核高
卷积核深度卷积核组数
7
7CC=49C方
3
3CC+33CC+33CC=27C方
根据D模型绘制的
在这里插入图片描述
224
22464->maxpool->11211264->conv3_128->112112*128

学到什么:

  1. 学到了编写不同版本模型的方法。
  2. 通过列表储存网络信息。

注意:
1train.py 和之前AlexNet差不多,predict.py也和之前的差不多。
只需要改
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  1. 如果大家在网上看别人搭建模型会在预处理的第一步将RGB三个通道分别减去下面三个值,这三个值分别对应imageNet所有图片RGB三个通道的均值。但从头开始训练就不用减。如果基于迁移学习的方式进行再训练,则需要减去。ResNet会细讲。

在这里插入图片描述

  1. 作者建议:由于VGG网络很大,而训练集样本比较小,无法充分训练。
    训练过程漫长,如果有需要VGG网络训练的话,使用迁移学习训练自己的样本集。
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值