Pytorch学习记录(5)卷积操作的介绍

Pytorch学习记录(5)卷积操作的介绍

这篇博文主要在于记录卷积操作的学习过程,包括概念以及具体实战环节。

  1. 卷积操作的定义以及意义:

卷积操作的动态演示:conv_arithmetic/README.md at master · vdumoulin/conv_arithmetic · GitHub

如果从形象的方式理解卷积的意义,即为进行一次特征“浓缩”,用另一个意思来讲,就是把它抽象化。最后经过很多次的抽象化,你会将原始的矩阵变成一个 1 维乘 1 维的矩阵,这就是一个数字(变成了可以让分类器处理的概率数字,有些像降维作用的意思)。

  1. 卷积层的介绍与实现:

在PyTorch官网中,详细介绍了常用的卷积操作函数:nn.Conv1d、nn.Conv2d、nn.Conv3d等,其中Conv1d针对一维的向量,Conv2d针对二维的向量,Conv3d针对三维的向量。在图像处理中,Conv2d的使用次数较多,因此本文以Conv2d为重点进行卷积层的介绍。

2.1 卷积层的参数:

在官网中关于卷积层的参数,描述如下:

Conv2d(in_channels, out_channels, kernel_size, 
        stride=1,padding=0, dilation=1, 
        groups=1,bias=True, padding_mode=‘zeros’)
  • in_channels:输入的通道数目 【必选】

  • out_channels: 输出的通道数目 【必选】

  • kernel_size:卷积核的大小,类型为int 或者元组,当卷积是方形的时候,只需要一个整数边长即可,卷积不是方形,要输入一个元组表示 高和宽。【必选】

  • stride: 卷积每次滑动的步长为多少,默认是 1 【可选】

  • padding: 设置在所有边界增加 值为 0 的边距的大小(就是在feature map 外围增加几圈 0 ),例如当 padding =1 的时候,如果原来大小为 3 × 3 ,那么之后的大小为 5 × 5 。即在外围加了一圈 0 。【可选】

  • dilation:控制卷积核之间的间距【可选】

  • groups:控制输入和输出之间的连接。(不常用)【可选】

  • bias: 是否将一个 学习到的 bias 增加输出中,默认是 True 。【可选】

  • padding_mode : 字符串类型,接收的字符串只有 “zeros” 和 “circular”。【可选】

2.2 卷积层的简单实现:

当设置DataLoader的参数batch_size=64时,表示一次性加载64张照片,写代码实现imgs和target的读取,并通过tensorboard对于生成的output进行查看,并与input进行对比。

上述代码仍是读取CIFAR10的图像数据,其中值得关注的是原始输入图像的尺寸、输出图像的尺寸,由于卷积操作之后的channels=6,因此需要借助reshape操作将通道数改成3,代码为:output = torch.reshape(output, (-1, 3, 30, 30))。

import torch
import torchvision
from torch import nn
from torch.utils.data import DataLoader
from torch.nn import Conv2d
from torch.utils.tensorboard import SummaryWriter

dataset = torchvision.datasets.CIFAR10(root="./data", train=False, transform=torchvision.transforms.ToTensor())
dataloader = DataLoader(dataset, batch_size=64)


class Model(nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.conv1 = Conv2d(in_channels=3, out_channels=6,
                            kernel_size=3, stride=1, padding=0)

    def forward(self, x):
        x = self.conv1(x)
        return x


model = Model()
writer = SummaryWriter("./logs")

step = 0
for data in dataloader:
    imgs, targets = data
    output = model(imgs)
    print(imgs.shape)
    print(output.shape)
    writer.add_images("input", imgs, step)
    output = torch.reshape(output, (-1, 3, 30, 30))
    writer.add_images("output", output, step)
    step = step + 1

该图为所输入的input,为CIFAR10数据集:

下图为经过卷积操作之后得到的结果:

2.3对于卷积层输入input与输出output 的尺寸信息:

可以通过查看Pytorch官网Conv2d — PyTorch 1.13 documentation进行查看,下方放出一个样例作为参考:

3.总结

本文在了解了卷积操作的具体实现方法之后,对于卷积层的创建进行了实战。卷积层可以有效地实现压缩特征,在对于后续神经网络中实现卷积操作有着重要意义。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值