pytorch: Pool 和 AdaptivePool 的区别和使用方法

本文介绍了PyTorch中两种池化操作:手动设计和自适应池化。手动设计包括MaxPool和AvgPool的一、二、三维版本,需要指定卷积核大小、步长和填充。自适应池化则根据输入自动调整,提供均值和最大值两种类型,适应不同输出尺寸需求。在实际应用中,自适应池化常用于模型降维至1维,便于输入全连接层。
摘要由CSDN通过智能技术生成

在 pytorch 中,池化层(Pooling)有两种操作方式,一种是手动设计,另一种是自适应池化。

一、手动设计

池化层操作,一般有最大值(max)池化和均值(avg)池化,而根据尺寸又有一维,二维,三维。所以,手动设计的池化层有6种函数:
AvgPool1d
AvgPool2d
AvgPool3d
MaxPool1d
MaxPool2d
MaxPool3d

以 AvgPool2d 为例,求一个张量的平均二维池化层:

import torch
import torch.nn as nn

input = torch.rand(1, 3, 5, 5)
avgpool = nn.AvgPool2d(kernel_size=3, stride=1, padding=0)
out1 = avgpool(input)
print(out1.shape)

输出:
torch.Size([1, 3, 3, 3])

从例子中可以看出,手动设计的池化层,要根据自己想要得到的输出来设置卷积核的大小,步长以及边界补充。该函数一般混合在卷积层中使用。

二、自适应池化

同样地,自适应池化也有分均值最大值,分一维,二维三维。也有6个函数:
AdaptiveAvgPool1d
AdaptiveAvgPool2d
AdaptiveAvgPool3d
AdaptiveMaxPool1d
AdaptiveMaxPool2d
AdaptiveMaxPool3d

同样地,以AdaptiveAvgPool2d为例子:

import torch
import torch.nn as nn

adaavgpool = nn.AdaptiveAvgPool2d(3)
out2 = adaavgpool(input)
print(out2.shape)

adaavgpool = nn.AdaptiveAvgPool2d([2, 3])
out2 = adaavgpool(input)
print(out2.shape)

输出为:
torch.Size([1, 3, 3, 3])
torch.Size([1, 3, 2, 3])

从例子中可以看出,自适应池化不需要设计计算输出的大小,输入的参数是输出的大小,所以不需要自行设计,就可以得到想要的输入大小,该前提下是输出不能比输入大。该自适应池化函数一般应用在卷积层后面,把卷积层降维到1,即nn.AdaptiveAvgPool2d(1),然后通过 x=x.view(1) 更改形状,左后输入到全连接层。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值