卷积 反卷积 上采样 下采样 区别

1.卷积

就是利用卷积核  步长前进 卷积整个图片

2.反卷积

  • 反卷积的具体操作

原图输入尺寸为【1,3,3,3】对应【batch_size,channels,width,height】

反卷积tconv = nn.ConvTranspose2d(3,3,3,stride=2,padding=1)

求反卷积的输出尺寸?

第一步:对输入的特征图做插值,在原先高宽方向的每两个相邻中间插上(Stride−1)列0,如下图所示,原来的尺寸为3*3,因为stride=2,则是在相邻行(列)之间插入(2-1)行(列)0

插入后的尺寸为为:height = height+(height-1)*(stride-1),这里也就是h=3+(2-1)(3-1)=5,即插值过后的 特征图为5*5

第二步:求新的卷积核设置

新卷积核的kernel_new不变为3,stride_new恒为1,padding_new =(kernel_size - padding - 1) = 1

第三步:用新的卷积核在新的特征图上做常规的卷积,得到的结果就是逆卷积的结果。

即在5*5的特征图上执行nn.conv(1,3,3,stride = 1,padding = 1),最后输出的特征图尺寸为:(5-3+2*1)/1+1=5

  • 反卷积核的确定

卷积核的确定方式主要有两种,一是通过双线性插值固定卷积核的参数,不随着学习过程更新;二是随机初始化,并随着学习过程更新。

3.上采样

 

4.下采样

 

反卷积=上采样=(转置卷积+微步卷积)⊆ 空洞卷积=一般意义上的广义卷积(包含上采样和下采样)。

卷积和下采样基本一致     只是卷积过程 卷积核本身带权重 有步长   下采样基本直接采取 没有权重约束

反卷积和上采样基本一致     只是反卷积过程 卷积核本身带权重 有步长   下采样基本直接采取 没有权重约束

总体而言  卷积类参数多  采样类参数极少

  • 6
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值