卷积神经网络中用多个3*3的小卷积核代替大卷积核

1、为什么要使用3*3的卷积核?
(1)3x3是最小的能够捕获像素八邻域信息的尺寸。
(2)两个3x3的堆叠卷基层的有限感受野是5x5;三个3x3的堆叠卷基层的感受野是7x7,故可以通过小尺寸卷积层的堆叠替代大尺寸卷积层,并且感受野大小不变。
(3)多个3x3的卷基层比一个大尺寸filter卷基层有更多的非线性(更多层的非线性函数,使用了3个非线性激活函数)。
(4)多个3x3的卷积层比一个大尺寸的filter有更少的参数,如三个3x3的卷积层参数个数3x((3x3xC)xC)=27C2;一个(7x7xC)xC的卷积层参数为49C2。唯一的不足是,在进行反向传播时,中间的卷积层可能会导致占用更多的内存;

第四条详解:假设该卷积层的卷积核为3×3,为了清晰明了假设卷积层的输入和输出的特征图(featuremap)大小(其实是channel通道数)分别为C1,C2。说明:卷积核的应该是一个多维的矩阵K×K×channels,其中channels是由输入的featuremap的通道数决定的,而卷积层中卷积核的个数是由输出的featuremap的通道数决定的,所以该卷积层的参数量是:(3×3×C1)× C2,说明:
(3×3×C1) —— 是每一个卷积核的参数量;
× C2 —— 是总共C2个卷积核;

2、为什么可以使用33的卷积核?
卷积核卷积后输出尺寸:假设图片(Input)尺寸为M×M,卷积核(Filter)大小为K×K,填充(Padding)为P,步长(stride)为s。
则卷积输出(Output)特征图大小为 = (M + 2
P - K)/S +1
假设我们假设图片是2828的,
我们使用5
5的卷积核对其卷积,步长(stride)为1,填充(pad)为0,得到的结果是:(28-5)/1+1=24
然后我们使用2个卷积核为33的,这里的两个是指2层,同样步长(stride)为1,填充(pad)为0
第一层3
3:
得到的结果是=(28-3 + 02)/1+1=26
第二层3
3:
得到的结果是=(26-3 +02)/1+1=24
所以我们的最终结果和5
5的卷积核是一样的!!!
下图更形象一些:
在这里插入图片描述

  • 8
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 9
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值