卷积神经网络CNN的池化层和1*1的卷积核的作用

卷积神经网络CNN的池化层和1*1的卷积核的作用

(1)池化层|Pooling Layer:
目前,有两种广泛使用的池化操作——平均池化(average pooling)最大池化(max pooling),其中最大池化是两者中使用最多的一个操作,其效果一般要优于平均池化。池化层用于在卷积神经网络上减小特征空间维度,但不会减小深度,1乘1的卷积核来担任减小深度的角色。当使用最大池化层时,采用输入区域的最大数量,而当使用平均池化时,采用输入区域的平均值。下图就是采用最大池化的方法维度从4乘4减小到了2乘2,但并不会减小深度(也就是通道数)
在这里插入图片描述
说明:一般普遍采用的都是2乘2的卷积核,并且步长是2,这样就达到了维度减小一半的目的

参考链接:https://blog.csdn.net/qq_21950671/article/details/88808152

(2)1×1卷积理解
  假设当前输入张量维度为6×6×32,卷积核维度为1×1×32,取输入张量的某一个位置(如图黄色区域)与卷积核进行运算。实际上可以看到,如果把1×1×32卷积核看成是32个权重W,输入张量运算的1×1×32部分为输入x,那么每一个卷积操作相当于一个Wx过程,多个卷积核就是多个神经元,相当于一个全连接网络。
  综上,可以将1×1卷积过程看成是将输入张量分为一个个输入为1×1×32的x,他们共享卷积核变量(对应全连接网络的权重)W的全连接网络
  在这里插入图片描述
1×1卷积核作用就是通过控制卷积核的数量达到通道数大小的放缩而池化层只能改变高度和宽度,无法改变通道数

参考链接:https://www.cnblogs.com/CZiFan/p/9490565.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Python量化投资、代码解析与论文精读

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值