转置卷积相关


卷积可以理解为压缩,转置卷积为解压缩。
在这里插入图片描述
重新排列输入和核
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

前言

卷积不会增大输出的高和宽,要么不变,要么减小。
转置卷积可以增大输出的高和宽,实现过程如下图所示。
在这里插入图片描述

思想

输入里的每一个元素与卷积核中的元素相乘,以2X2输入为例,相乘后会得到四个矩阵,让这四个矩阵相加就是输出。
输出可由以下公式得到:
在这里插入图片描述
K表示kernel,Y为输出,X为输入
在这里插入图片描述
在这里插入图片描述

代码实现

import torch
from torch import nn
from d2l import torch as d2l
def trans_conv(X,K):
    h,w = K.shape
    Y = torch.zeros((X.shape[0]+h-1,X.shape[1]+w-1))
    for i in range(X.shape[0]):
        for j in range(X.shape[1]):
            Y[i:i+h,j:j+w] += X[i,j]*K
    return Y
X = torch.tensor([[0.0, 1.0], [2.0, 3.0]])
K = torch.tensor([[0.0, 1.0], [2.0, 3.0]])
trans_conv(X, K)

在这里插入图片描述
我们也可以调用pytorch中的API来实现,具体代码如下:

X, K = X.reshape(1, 1, 2, 2), K.reshape(1, 1, 2, 2) #批量大小,通道数,输入长,宽
tconv = nn.ConvTranspose2d(1, 1, kernel_size=2,bias=False)
tconv.weight.data = K
tconv(X)

在这里插入图片描述

步幅,填充,多通道

填充

常规卷积将填充应用在输入上,转置卷积则应用在输出上。当将高和宽两侧的填充数指定为1时,转置卷积的输出中将删除第一和最后的行与列。
当padding=0时,输出为:
在这里插入图片描述
当padding=1时,输出为:
在这里插入图片描述
把最外面的一行和一列删掉了。
代码实现如下:

tconv = nn.ConvTranspose2d(1, 1, kernel_size=2, padding=1, bias=False)
tconv.weight.data = K
tconv(X)

步幅

转置卷积中的步幅与卷积中并无差别,具体实例如下:
当步幅为1时:
在这里插入图片描述
当步幅为2时:
在这里插入图片描述

多通道

对于多个输入和输出通道,转置卷积与常规卷积以相同方式运作。 假设输入有ci个通道,且转置卷积为每个输入通道分配了一个kh×kw的卷积核张量。 当指定多个输出通道时,每个输出通道将有一个ci×kh×kw的卷积核。

同样,如果我们将X代入卷积层f来输出Y=f(X),并创建一个与f具有相同的超参数、但输出通道数量是X中通道数的转置卷积层g,那么g(Y)的形状将与X相同。 下面的示例可以解释这一点。

X = torch.rand(size=(1, 10, 16, 16))
conv = nn.Conv2d(10, 20, kernel_size=5, padding=2, stride=3)
tconv = nn.ConvTranspose2d(20, 10, kernel_size=5, padding=2, stride=3)
tconv(conv(X)).shape == X.shape

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
转置卷积(Transposed Convolution),也称为上采样(Upsampling)或反卷积(Deconvolution),是深度学习中一种特殊的卷积操作,它与传统的卷积有着显著的区别。下面是它们的主要区别: 1. **方向性**: - **卷积**(Convolution)是从左到右、从前到后的局部感知,信息由输入向输出传递,减少尺寸并提取特征。 - **转置卷积**则反其道而行之,从输出向输入传递信息,它的目的是增加输出的维度,通常用于降维后的特征图恢复原始尺寸。 2. **滤波器的作用**: - 卷积是特征检测,通过滑动滤波器对输入数据进行加权求和,提取出特征。 - 转置卷积则是反向操作,它将滤波器应用到较小的特征图上,通过“膨胀”或插值的方式生成更大的输出,同时可以加入一些额外的参数来控制特征的生成。 3. **应用场景**: - 卷积常用于图像分类、物体检测等任务,减少数据的尺寸以提取更高级别的特征。 - 转置卷积主要在上采样阶段使用,比如在生成对抗网络(GANs)的生成器部分,用于将低分辨率的潜在向量转换回高分辨率的图像;或者在卷积神经网络的解码阶段,恢复被卷积层降维的特征图尺寸。 4. **数学表示**: - 卷积是线性的运算,通过滑动窗口计算每个位置的输出,输出通道数取决于滤波器的数量。 - 转置卷积则涉及到跨通道的元素复制或插值,以及可能的非线性变换,以生成更大尺寸的输出。 相关问题: 1. 转置卷积如何处理图像尺寸的变化? 2. 什么时候会用到反卷积而非普通的卷积? 3. 转置卷积能否保持空间上下文信息?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ap21ril

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值