深度学习笔记(三十二)CNN的Pooling池化层

本文介绍了卷积神经网络中的池化层,重点讲解了Maxpooling和Averagepooling的工作原理。Maxpooling通过取每个子区域的最大值来减少模型大小,增强特征提取的鲁棒性,是常用的选择。而Averagepooling则在深度学习网络较深时用于分解大型表示层。虽然Maxpooling更为常见,但在特定场景下,Averagepooling也有其优势。
摘要由CSDN通过智能技术生成

卷积神经网络最常见的是卷积层Convolution,与此同时,池化层也被广泛应用在神经网络中,目的是为了减小模型大小,提高训练速度,也增强了提取特征的鲁棒性。
本课简单介绍了池化层的工作原理,主要是两种方式:max和average

一、池化 Max pooling

顾名思义:取每个子区域中的最大值就是Max pooling
这下面这个例子中, f = 2 , s = 2 f=2,s=2 f=2,s=2(这两个超参数不需要学习,池化层只是计算了神经网络某一层中的静态属性)
在这里插入图片描述
直观理解最大化操作的功能:只要在任何一个象限内提取到某个特征,都会将最大值保留在最大化池的输出中。利用最大化池在实验中表明效果普遍非常好,上述的直观理解也被广泛引用。
对于 n × n n\times n n×n图像, p p p为填充数量, f f f为过滤器大小, s s s为步长,池化层输出维度的计算方法和卷积的方法一致:
⌊ n + 2 p − f s + 1 ⌋ \lfloor \frac{n+2p-f}{s}+1\rfloor sn+2pf+1

在这里插入图片描述
需要注意的是,如果输入是三维,那么输出是对应的三维,有相同的通道数
在最大池化中,很少用Padding,所以通常不填充,输出维度:
⌊ n − f s + 1 ⌋ \lfloor \frac{n-f}{s}+1\rfloor snf+1

二、池化 Average pooling

在这里插入图片描述
【最大池化】比【平均池化】更常使用,有一个例外:当神经网络深度非常深时,用平均池化的方法分解规模较大的表示层。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Mr.zwX

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值