【学习笔记】【Pytorch】八、池化层
学习地址
主要内容
一、最大池化操作示例
二、nn.MaxPool2d类的使用
作用:对于输入信号的输入通道,提供2维最大池化(max pooling)操作。
三、池化公式
一、最大池化操作示例
动图演示
默认步长为池化核尺寸。

- 最大池化层(MaxPool),也叫下采样层。
- 上采样就是低分辨率到高分辨率,下采样就是压缩图片分辨率。
- 池化的由来:卷积输出中包含的大部分信息是冗余的,可以通过池化操作减小输入的大小以及输出中相似值的数量。池化最大的作用是增大感受野,能让后面的卷积核看到更全局的内容。
- 池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。本质是降采样,可以大幅减少网络的参数量。
- 池化层的特征
- 没有要学习的参数
池化层和卷积层不同,没有需要学习的参数,池化只是从目标区域中取最大值(平均值),因此不存在要学习的过程。 - 通道数不发生变化
经过池化运算,输入数据和输出数据的通道数不会发生变化。 - 对于微小的位置变化具有鲁棒性(健壮)
输入数据发生微小变化时,池化仍会返回相同的结果,所以池化操作具有很强的鲁棒性。
- 没有要学习的参数
二、nn.MaxPool2d类的使用
from torch.nn import Conv2d
1.使用说明
-
dilation:空洞卷积示例,1号格和2号格中间有空格。

-
ceil_mode 参数中的ceil(向上取整)、floor(向下取整)

2.代码实现
import torch
import torchvision
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
<
文章介绍了PyTorch中的最大池化操作,包括MaxPool2d类的使用,如kernel_size和ceil_mode参数,并通过代码示例展示了如何对二维张量和数据集进行最大池化处理。池化的主要作用是减少输入大小,降低模型复杂度,同时增大感受野。

最低0.47元/天 解锁文章
4763

被折叠的 条评论
为什么被折叠?



