nn.Conv2d与nn.ConvTranspose2d参数理解

nn.Conv2d与nn.ConvTranspose2d参数理解

前言

其实两者在形状上是逆运算,即:大小为 I I I的图像,经过以 k k k卷积核大小, s s s步长, p p p填充大小的Conv2d卷积,变为大小 O O O的输出;那么,大小为 O O O的图像,经过以 k k k卷积核大小, s s s步长, p p p填充大小的ConvTranspose2d的逆卷积之后,则会变为大小 I I I的输出。

# data.shape: batch * c * w * h
cov = torch.nn.Conv2d(c, y, k, s, p)
cov_trans = torch.nn.ConvTranspose2d(y, c, k, s, p)
data1 = cov(data) # data1.shape: batch * y * w1 * h1
data2 = cov_trans(data1) # data2.shape: batch * y * w * h
# 可以看到最后又变成了原来的大小。

1. torch.nn.Conv2d()

torch.nn.Conv2d(    in_channels,  #输入数据的通道数(如彩色图片,一般为3)
					out_channels, #输出数据的通道数(就是我想让输出多少通道,就设置为多少)
					kernel_size,  #卷积核的尺寸(如(32),3与(3,3)等同)
					stride = 1,   #卷积步长,就是卷积操作时每次移动的格子数
					padding = 0,  #原图周围需要填充的格子行(列)数,无填充的话卷积到边缘会直接忽略该边缘
					dilation = 1, #空洞卷积的空洞指数,一般默认为1即可
					groups = 1,   #分组卷积的组数,一般默认设置为1,不用管
					bias = True,  #卷积偏置,一般设置为False,True的话可以增加模型的泛化能力
					padding_mode = 'zeros'  #设置边缘填充值为0,或别的数,一般都默认设置为0
				)

1.1 输入和输出

  • 输入图像尺寸: I I I
  • 输出图像尺寸: O O O
  • 卷积核大小(kernel_size): k k k
  • 步长(stride): s s s
  • 填充(padding): p p p

1.2 计算公式

  • O = ( I − k + 2 p ) / s + 1 O = (I-k+2p) / s + 1 O=(Ik+2p)/s+1

2. torch.nn.ConvTranspose2d()

torch.nn.ConvTranspose2d(in_channels, 
                         out_channels, 
                         kernel_size, 
                         stride=1, 
                         padding=0, 
                         output_padding=0, 
                         groups=1, 
                         bias=True, 
                         dilation=1, 
                         padding_mode='zeros') # by default

2.1 输入和输出

  • 输入图像尺寸: I I I
  • 输出图像尺寸: O O O
  • 卷积核大小(kernel_size): k k k
  • 步长(stride): s s s
  • 填充(padding): p p p

2.2 计算公式

  • O = ( I − 1 ) s + k − 2 p O = (I-1)s + k - 2p O=(I1)s+k2p ,刚好是1.2的相反,逆运算。也就是将1.2中的 I I I移到左边,变为 O O O即可。
  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
nn.Conv2dnn.functional.conv2d是PyTorch中用于进行二维卷积操作的两种方式,它们之间有以下区别: 1. 类与函数:nn.Conv2d是一个类,需要实例化为对象后才能使用,而nn.functional.conv2d是一个函数,可以直接调用。 2. 继承关系:nn.Conv2dnn.Module类的子类,因此它可以被用作神经网络模型的一部分,并且可以在模型的forward方法中被调用。而nn.functional.conv2d不是nn.Module的子类,它是一个纯函数,只能在模型的forward方法中被调用。 3. 参数传递:nn.Conv2d参数需要在实例化时进行传递,包括输入通道数、输出通道数、卷积核大小等。而nn.functional.conv2d参数需要在每次调用时传递,包括输入张量、卷积核、步长、填充等。 4. 内部实现:nn.Conv2d使用了可学习的参数,包括卷积核权重和偏置项,这些参数会在训练过程中进行更新。而nn.functional.conv2d没有可学习的参数,它只是对输入张量进行卷积操作。 下面是一个示例代码,展示了如何使用nn.Conv2dnn.functional.conv2d进行二维卷积操作: ```python import torch import torch.nn as nn import torch.nn.functional as F # 使用nn.Conv2d进行卷积操作 conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1) input1 = torch.randn(1, 3, 32, 32) output1 = conv1(input1) # 使用nn.functional.conv2d进行卷积操作 input2 = torch.randn(1, 3, 32, 32) kernel = torch.randn(64, 3, 3, 3) output2 = F.conv2d(input2, kernel, stride=1, padding=1) print(output1.shape) print(output2.shape) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

秋冬无暖阳°

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值