【Pytorch】常用层的说明(4)

目录

一、卷积层

二、最大池化层

三、非线性激活

四、线性层及其他层介绍

五、搭建一个小网络

六、Sequential的使用


一、卷积层

https://pytorch.org/docs/stable/generated/torch.nn.Conv2d.html#torch.nn.Conv2d

https://github.com/vdumoulin/conv_arithmetic/blob/master/README.md

torch.nn.Conv2d(in_channels, # 输入图像的通道数
out_channels, # 输出的通道数,如下图,有2个卷积核,产生output通道2个
kernel_size,  # 卷积核
stride=1,  # 步长
padding=0, 
dilation=1, 
groups=1, 
bias=True, 
padding_mode='zeros', 
device=None, 
dtype=None)

# -*- coding: utf-8 -*-
# 作者:小土堆
# 公众号:土堆碎念
import torch
import torchvision
from torch import nn
from torch.nn import Conv2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

# 将图片数据转为tensor格式,torchvision.transforms.ToTensor()
dataset = torchvision.datasets.CIFAR10("../data", train=False, transform=torchvision.transforms.ToTensor(),
                                       download=True)
dataloader = DataLoader(dataset, batch_size=64)

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__() # 完成父类的初始化
        self.conv1 = Conv2d(in_channels=3, out_channels=6, kernel_size=3, stride=1, padding=0)

    def forward(self, x):
        x = self.conv1(x)
        return x

# 初始化这个网络
tudui = Tudui()
# 打印网络结构
print(tudui)


# 可视化
writer = SummaryWriter("../logs")

step = 0
for data in dataloader:
    imgs, targets = data
    output = tudui(imgs) # 模型输出
    print(imgs.shape) # torch.Size([64, 3, 32, 32])
    print(output.shape) # torch.Size([64, 6, 30, 30])
    
    writer.add_images("input", imgs, step)
    # torch.Size([64, 6, 30, 30])  -> [xxx, 3, 30, 30]

    # 不严谨,为了可视化,转为3个通道。多余的数放到batchsize里
    output = torch.reshape(output, (-1, 3, 30, 30))
    writer.add_images("output", output, step)

    step = step + 1

tensorboard的指令 

% tensorboard --logdir=logs

二、最大池化层

https://pytorch.org/docs/stable/generated/torch.nn.MaxPool2d.html#torch.nn.MaxPool2d

torch.nn.MaxPool2d(kernel_size, 
stride=None, 
padding=0, 
dilation=1, 
return_indices=False, 
ceil_mode=False)

import torch
import torch.nn.functional as F

input = torch.tensor([[1, 2, 0, 3, 1],
                      [0, 1, 2, 3, 1],
                      [1, 2, 1, 0, 0],
                      [5, 2, 3, 1, 1],
                      [2, 1, 0, 1, 1]], dtype=torch.float32)

kernel = torch.tensor([[1, 2, 1],
                       [0, 1, 0],
                       [2, 1, 0]])

input = torch.reshape(input, (1, 1, 5, 5)) # batchsize,channel,h,w
kernel = torch.reshape(kernel, (1, 1, 3, 3))

print(input.shape) # torch.Size([1, 1, 5, 5])
print(kernel.shape) # torch.Size([1, 1, 3, 3])

output = F.conv2d(input, kernel, stride=1)
print(output)
# tensor([[[[10, 12, 12],
#           [18, 16, 16],
#           [13,  9,  3]]]])

output2 = F.conv2d(input, kernel, stride=2)
print(output2)
# tensor([[[[10, 12],
#           [13,  3]]]])

output3 = F.conv2d(input, kernel, stride=1, padding=1)
print(output3)
# tensor([[[[ 1,  3,  4, 10,  8],
#           [ 5, 10, 12, 12,  6],
#           [ 7, 18, 16, 16,  8],
#           [11, 13,  9,  3,  4],
#           [14, 13,  9,  7,  4]]]])

完整读取代码 

# -*- coding: utf-8 -*-
# 作者:小土堆
# 公众号:土堆碎念

import torch
import torchvision
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

# 使用测试集train=False
dataset = torchvision.datasets.CIFAR10("../data", train=False, download=True,
                                       transform=torchvision.transforms.ToTensor())

dataloader = DataLoader(dataset, batch_size=64)

class Tudui(nn.Module):
    # 模型初始化
    def __init__(self):
        super(Tudui, self).__init__()
        self.maxpool1 = MaxPool2d(kernel_size=3, ceil_mode=False)

    def forward(self, input):
        output = self.maxpool1(input)
        return output

tudui = Tudui()

writer = SummaryWriter("../logs_maxpool")
step = 0

for data in dataloader:
    imgs, targets = data
    # writer.add_images("input", imgs, step)
    output = tudui(imgs) # model输入
    # writer.add_images("output", output, step)
    # step = step + 1
    print(output.shape)

# writer.close()

三、非线性激活

https://pytorch.org/docs/stable/nn.html#non-linear-activations-weighted-sum-nonlinearity

sigmoid使用如下,

>>> m = nn.Sigmoid()
>>> input = torch.randn(2)
>>> output = m(input)

 完整代码如下,

# -*- coding: utf-8 -*-
# 作者:小土堆
# 公众号:土堆碎念
import torch
import torchvision
from torch import nn
from torch.nn import ReLU, Sigmoid
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

input = torch.tensor([[1, -0.5],
                      [-1, 3]])
print(input.shape) # torch.Size([2, 2])

# 因为relu的输入需要(N,*), 要batchsize
input = torch.reshape(input, (-1, 1, 2, 2))
# print(input.shape) # torch.Size([1, 1, 2, 2])
dataset = torchvision.datasets.CIFAR10("../data", train=False, download=True,
                                       transform=torchvision.transforms.ToTensor())

dataloader = DataLoader(dataset, batch_size=64)

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.relu1 = ReLU()
        self.sigmoid1 = Sigmoid()

    def forward(self, input):
        output = self.sigmoid1(input)
        return output

# 初始化网络
tudui = Tudui()
output = tudui(input)
print(output) 
# tensor([[[[0.7311, 0.3775],
#           [0.2689, 0.9526]]]])


writer = SummaryWriter("../logs_relu")
step = 0
for data in dataloader:
    imgs, targets = data
    writer.add_images("input", imgs, global_step=step)
    output = tudui(imgs)
    writer.add_images("output", output, step)
    step += 1

writer.close()

四、线性层及其他层介绍

https://pytorch.org/docs/stable/generated/torch.nn.functional.linear.html#torch.nn.functional.linear

import torch
import torchvision
from torch import nn
from torch.nn import Linear
from torch.utils.data import DataLoader

dataset = torchvision.datasets.CIFAR10("./data", train=False, transform=torchvision.transforms.ToTensor(),
                                       download=True)

dataloader = DataLoader(dataset, batch_size=64)

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.linear1 = Linear(196608, 10)

    def forward(self, input):
        output = self.linear1(input)
        return output

tudui = Tudui()

for data in dataloader:
    imgs, targets = data
    print(imgs.shape) # torch.Size([196608])
    output = torch.flatten(imgs)
    print(output.shape) # torch.Size([10])
    output = tudui(output)
    print(output.shape) # torch.Size([64, 3, 32, 32])

五、搭建一个小网络

搭建CIFAR10的模型如下:

根据模型结构,首先写  def __init__(self):

每个层的参数在这一步就写好了,

__init__写完接着写forward()。就是把上述层走一遍。

然后就可以初始化网络了。之后对输入输出进行验证。

测试通过就ok啦。

六、Sequential的使用

把单个层组合起来,使模型结构更简单。

https://pytorch.org/docs/stable/generated/torch.nn.Sequential.html#torch.nn.Sequential

对比一下

import torch
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.tensorboard import SummaryWriter


class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.model1 = Sequential(
            Conv2d(3, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding=2),
            MaxPool2d(2),
            Flatten(), # 展平,输入第一个线性层
            Linear(1024, 64),
            Linear(64, 10) # 从第二个线性层输出
        )

    def forward(self, x):
        x = self.model1(x)
        return x

tudui = Tudui()
print(tudui)
input = torch.ones((64, 3, 32, 32))
output = tudui(input)
# 可视化方式
print(output.shape) #

writer = SummaryWriter("../logs_seq")
writer.add_graph(tudui, input)  # 通过 tensorboard 查看图结构
writer.close()

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: PyTorch中的meanpool指的是平均池化操作,是一种下采样的方法,常用于图像处理和卷积神经网络中的特征提取操作。 在PyTorch中,可以使用nn模块中的AvgPool2d函数来实现平均池化操作。例如,下面的代码演示了如何对一个4通道的输入张量进行2x2的平均池化操作: ``` import torch.nn as nn # 定义输入张量 input_tensor = torch.randn(1, 4, 8, 8) # 定义2x2的平均池化层 meanpool = nn.AvgPool2d(kernel_size=2) # 对输入张量进行平均池化操作 output_tensor = meanpool(input_tensor) # 查看输出张量的形状 print(output_tensor.shape) ``` 输出: ``` torch.Size([1, 4, 4, 4]) ``` 这里的kernel_size参数指定了平均池化的窗口大小,这里设置为2表示使用2x2的窗口进行池化操作。在这个示例中,输入张量的形状为[1, 4, 8, 8],表示一个批次中有1个样本,每个样本有4个通道,输入图像大小为8x8。经过2x2的平均池化操作后,输出张量的形状为[1, 4, 4, 4],表示一个批次中有1个样本,每个样本有4个通道,输出图像大小为4x4。 ### 回答2: PyTorch中的meanpool是一种用于平均池化操作的函数。平均池化是一种常用的图像处理操作,用于降低图像的空间分辨率。 在PyTorch中,可以使用torch.nn模块中的MaxPool2d函数进行平均池化操作。该函数接受一个输入张量和一个池化核的大小作为参数,并返回池化结果。 例如,对于一个输入张量大小为(N, C, H, W),N是批量大小,C是通道数,H和W分别是高度和宽度。如果我们使用大小为(k, k)的池化核进行平均池化,那么输出张量的大小将为(N, C, H/k, W/k)。 平均池化的操作是在输入张量的每个通道上进行的。对于输入张量中的每个通道,平均池化计算了池化核覆盖区域内像素的平均值,并将其作为输出张量的相应位置的像素值。 通过平均池化,我们可以降低图像的空间分辨率,减少图像的尺寸,并保留图像中的主要特征。这在许多计算机视觉任务中都是非常有用的,例如目标识别和图像分类。 总之,PyTorch中的meanpool函数是一种用于平均池化操作的函数,通过计算池化核内像素的平均值来降低图像的空间分辨率。这是一种常用的图像处理操作,可以用于许多计算机视觉任务中。 ### 回答3: PyTorch中的meanpool是指平均池化操作。它是一种经典的池化操作,常用于减小图像的尺寸,降低数据的空间维度。以图像为例,meanpool会将原始图像划分为不重叠的小块,并对每个小块内的像素值求平均,将这个平均值作为该小块的代表值。 PyTorch中的meanpool操作可以通过torch.nn模块的MaxPool2d类来实现,该类的参数中设置了池化操作的尺寸和步长。具体而言,池化操作会按照指定的池化尺寸在输入数据的每个通道上移动池化窗口,每次取窗口内数据的平均值作为输出的对应位置的值。 例如,假设我们有一个输入大小为(3, 32, 32)的图片数据,表示有3个通道的32x32像素的图像。我们想要对该图片进行2x2的meanpool操作,步长为2。使用PyTorch的代码可以如下: ```python import torch import torch.nn as nn # 输入数据大小为(3, 32, 32) input_data = torch.randn(1, 3, 32, 32) # 创建一个meanpool操作,大小为2x2,步长为2 meanpool = nn.MaxPool2d(2, stride=2) # 对输入数据进行meanpool操作 output_data = meanpool(input_data) # 输出数据大小为(3, 16, 16) print(output_data.size()) ``` 通过该代码,我们可以看到输入数据经过meanpool操作后,输出数据的尺寸变为了(3, 16, 16),其中通道数保持不变,而空间维度减小了一半。这说明meanpool操作成功地对输入数据进行了降维处理。 需要注意的是,meanpool是一种无参数的操作,它只对输入数据进行处理而没有可学习的参数。因此,meanpool的作用是提取输入数据的统计信息,如均值,而不是通过学习权重来表示这些信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值