激活层好像有点浪费,不需要也可以。
import torch
import torchvision
import torch
import torch.nn as nn
#inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出
m = nn.LeakyReLU(inplace=True)
maxpool= nn.MaxPool2d(2,2)
input =torch.Tensor([[0.1,0.2],[0.3,-0.1]]).unsqueeze(0)
print(input)
output = m(input)
print(output)
pool_res=maxpool(output)
print(pool_res)