深度学习-池化层

池化层用于减少卷积神经网络模型上的空间尺寸,而不是深度,基本上这是您获得的:
1、通过减少空间信息,可以获得计算性能
2、较少的空间信息也意味着较少的参数,因此减少了过度拟合的机会
3、会得到一些翻译不变性
在这里插入图片描述

一些项目不使用池,特别是当他们想“学习”某些对象特定的位置时。 了解如何玩Atari游戏。
在下面的图中,我们显示了池化最大池层的最常见类型,它像普通的卷积一样滑动窗口,并在窗口上获得最大值作为输出。
在这里插入图片描述

最重要的参数:
输入:H1 x W1 x Depth_In x N
步幅:控制窗口滑动像素数量的标量。
K:内核大小
关于它的输出H2 x W2 x Depth_Out x N:
W2 = (W1-K)/S+1 H2 = (H1-K)/S+1 Depth(out) = Depth(In)
指出池层中没有可学习的参数也很有效。 所以它的反向传播更简单。

正向传播
池化层上的窗口移动机制与卷积层相同,唯一的变化是我们将选择窗口上的最大值。
Python正向传播:

在这里插入图片描述

向后传播
从反向传播一章中,我们了解到最大节点仅充当路由器,将输入梯度“ dout”赋予值大于零的输入。
您可以认为最大池在计算图上使用了一系列最大节点。 因此,将最大池化层的向后传播视为包含在正向传播和dout过程中选择的所有元素的蒙版之间的乘积。
在这里插入图片描述

换句话说,除了在前向传播期间选择的位置以外,相对于最大池化层的输入的梯度将为零的张量。
Python向后传播:

在这里插入图片描述

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值