我们先打开官方文档:
池化的作用:类似于满足使用的前提下让1080P→720P
打开池化层:pooling layers
最大池化Maxpool,有时也会被叫做下采样
maxunpool叫上采样
avpool平均采样
上采样是插值
下采样是抽样
可以通俗理解互为逆运算
最常用的还是MAXpool2d
这是输入和输出的形式
一、maxpool2d解读
参数:
kenel_size, 池化核大小
stride也是步长。但这里默认值是池化核的大小。与之前卷积层不一样
ceil_mode,当设置为True会进行ceil模式计算。。
关于ceil floor:
如图。当设置为ceil 会向上取整为3
当设置为floor 会向下取整2
二、最大池化操作讲解
1、池化操作
假设我们有现在的输入、和3×3的池化核
池化操作会选出输入数据中最大的数
2、关于ceil或者floor导致的结果
我们设置步长stride=3
走3步后会出现下图现象
2.1 ceil——MODE=True
如果是ceil那就是向上取整→保留 数据
2.2 ceil——mode=False
如果是floor那就是向下取整→不保留 数据
三、代码实践
1、根据ppt输入input
import torch
input=torch.tensor([
[1,2,0,3,1],
[0,1,2,3,1],
[1,2,1,0,0],
[5,2,3,1,1],
[2,1,0,1,1]
])
print(input.shape)
输出结果为:
torch.Size([5, 5])
但是官方文档要求
batchsize,channel,h,w的形式
因此:
input=torch.tensor([
[1,2,0,3,1],
[0,1,2,3,1],
[1,2,1,0,0],
[5,2,3,1,1],
[2,1,0,1,1]
])
input=torch.reshape(input,(-1,1,5,5))
print(input.shape)
//这里填-1就是让计算机自己计算batchsize//
输出结果为:
torch.Size([1, 1, 5, 5])
2、在基础上输入代码,使用maxpool2d
import torch
from torch import nn
from torch.nn import MaxPool2d
input=torch.tensor([
[1,2,0,3,1],
[0,1,2,3,1],
[1,2,1,0,0],
[5,2,3,1,1],
[2,1,0,1,1]
])
input=torch.reshape(input,(-1,1,5,5))
class tudui(nn.Module):
def __init__(self):
super(tudui, self).__init__()
self.maxpool1=MaxPool2d()
可以看到需要的参数:
class Tudui(nn.Module):
def __init__(self):
super(Tudui, self).__init__()
self.maxpool1=MaxPool2d(kernel_size=3,ceil_mode=True)
def forward(self,input):
output=self.maxpool1(input)
return output
//这里实例化了nn.Module。传入的参数会自动进入forward函数运行。
我们定义了神经网络maxpool1//
3、继续
import torch
from torch import nn
from torch.nn import MaxPool2d
input=torch.tensor([
[1,2,0,3,1],
[0,1,2,3,1],
[1,2,1,0,0],
[5,2,3,1,1],
[2,1,0,1,1]
])
input=torch.reshape(input,(-1,1,5,5))
class Tudui(nn.Module):
def __init__(self):
super(Tudui, self).__init__()
self.maxpool1=MaxPool2d(kernel_size=3,ceil_mode=True)
def forward(self,input):
output=self.maxpool1(input)
return output
tudui=Tudui()
output=tudui(input)
print(output)
但还是报错:意思是无法接受长整型long
修改方法:
1)后面加上数据类型
input=torch.tensor([
[1,2,0,3,1],
[0,1,2,3,1],
[1,2,1,0,0],
[5,2,3,1,1],
[2,1,0,1,1]
],dtype=torch.float32)
- 直接输入1.0 2.0.。。。。。。。。
4、结果
我们可以看到在ceil——mode=True下结果保留,为2351
tensor([[[[2., 3.],
[5., 1.]]]])
5、我们试一下False
class Tudui(nn.Module):
def __init__(self):
super(Tudui, self).__init__()
self.maxpool1=MaxPool2d(kernel_size=3,ceil_mode=False)
def forward(self,input):
output=self.maxpool1(input)
return output
四、使用图片来直观感受下:
import torch
import torchvision //用来下数据集//
from torch import nn //用来使用MAXPOOL2D.//
from torch.nn import MaxPool2d //用来使用MAXPOOL2D.//
from torch.utils.data import DataLoader //用来使用dataloader抓牌。//
from torch.utils.tensorboard import SummaryWriter //用来可视化效果。//
dataset=torchvision.datasets.CIFAR10("./P19_data",train=False,download=True,transform=torchvision.transforms.ToTensor())
//下载数据集在文件p19
下载训练的集
变换成tensor类型//
dataloader = DataLoader(dataset,batch_size=64)
class Tudui(nn.Module):
def __init__(self):
super(Tudui, self).__init__()
self.maxpool1=MaxPool2d(kernel_size=3,ceil_mode=False)
def forward(self,input):
output=self.maxpool1(input)
return output
tudui=Tudui()
step=0
writer=SummaryWriter("P19_maxpooling")
for data in dataloader:
imgs,targets=data
writer.add_images("input",imgs,step)
output=tudui(imgs)
writer.add_images("output",output,step)
step=step+1
writer.close()
终端:
(DL) D:\PyCharm\Py_Projects\XiaoTuDui>tensorboard --logdir=P19_maxpooling
TensorFlow installation not found - running with reduced feature set.
所谓池化 感觉就是降低画质
五、另外看弹幕下的一些想法:
这个add_imgs只展示单通道的灰度图或者三通道的彩色图
昨天卷积输出为6通道所以要reshape
而池化不改变通道数