pytorch 反卷积ConvTranspose2d

pytorch 反卷积ConvTranspose2d


引入nn.convTranspose2d



nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1)
#in_channels(int) – 输入信号的通道数
#out_channels(int) – 卷积产生的通道数
#kerner_size(int or tuple) - 卷积核的大小
#stride(int or tuple,optional) - 卷积步长,即要将输入扩大的倍数。
#padding(int or tuple, optional) - 输入的每一条边补充0的层数,高宽都增加2*padding
#output_padding(int or tuple, optional) - 输出边补充0的层数,高宽都增加padding
#groups(int, optional) – 从输入通道到输出通道的阻塞连接数
#bias(bool, optional) - 如果bias=True,添加偏置
#dilation(int or tuple, optional) – 卷积核元素之间的间距

in_channels与out_channels 作用和正常卷积一样

我们需要重点关注的是kerner_size(int or tuple) K 和 stride S 以及padding 和 output_padding

Stride 在反卷积中可以理解为输入元素的间距,如输入图像为5252,stride 为2 就变为每个元素之间有(S-1=2-1=1)个间距,变成(52+51)(52+51)大小,即103*103

padding 和kerner_size结合使用,即总的padding=K-P-1,如K=2,P=0,则padding为K-P-1=1
反卷积中S恒为1
然后计算方式就和卷积一样的了(可以这样认为)

如:

from torch import nn
import torch

up = nn.ConvTranspose2d(1, 64, kernel_size=2 , stride=2)
x = torch.rand(size=(8, 1, 52, 52))

out = up(x)
print(out.shape)

h’=(H-K+2P)/S +1=((52+51)-2+2*(2-0-1))/1+1=104

up = nn.ConvTranspose2d(1, 64, kernel_size=3 , stride=2)
x = torch.rand(size=(8, 1, 52, 52))

out = up(x)
print(out.shape)

h’=(H-K+2P)/S +1=((52+51)-3+2*(3-0-1))/1+1=105

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值