【学习笔记】【Pytorch】八、池化层

文章介绍了PyTorch中的最大池化操作,包括MaxPool2d类的使用,如kernel_size和ceil_mode参数,并通过代码示例展示了如何对二维张量和数据集进行最大池化处理。池化的主要作用是减少输入大小,降低模型复杂度,同时增大感受野。
摘要由CSDN通过智能技术生成

学习地址

PyTorch深度学习快速入门教程【小土堆】.

主要内容

一、最大池化操作示例
二、nn.MaxPool2d类的使用
作用:对于输入信号的输入通道,提供2维最大池化(max pooling)操作。
三、池化公式

一、最大池化操作示例

动图演示
默认步长为池化核尺寸。
在这里插入图片描述

  • 最大池化层(MaxPool),也叫下采样层。
  • 上采样就是低分辨率到高分辨率,下采样就是压缩图片分辨率。
  • 池化的由来:卷积输出中包含的大部分信息是冗余的,可以通过池化操作减小输入的大小以及输出中相似值的数量。池化最大的作用是增大感受野,能让后面的卷积核看到更全局的内容。
  • 池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。本质是降采样,可以大幅减少网络的参数量
  • 池化层的特征
    • 没有要学习的参数
      池化层和卷积层不同,没有需要学习的参数,池化只是从目标区域中取最大值(平均值),因此不存在要学习的过程。
    • 通道数不发生变化
      经过池化运算,输入数据和输出数据的通道数不会发生变化。
    • 对于微小的位置变化具有鲁棒性(健壮)
      输入数据发生微小变化时,池化仍会返回相同的结果,所以池化操作具有很强的鲁棒性。

二、nn.MaxPool2d类的使用

from torch.nn import Conv2d

1.使用说明

官方解释
中文解释
在这里插入图片描述
补充

  • dilation:空洞卷积示例,1号格和2号格中间有空格。
    在这里插入图片描述

  • ceil_mode 参数中的ceil(向上取整)、floor(向下取整)
    在这里插入图片描述

2.代码实现

import torch
import torchvision
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值