上采样(Upsampling)与反卷积(Deconvolution)的区别

1.上采样和反卷积是不一样的,大家要注意这一点。可以参考这篇博客:https://blog.csdn.net/qq_27871973/article/details/82973048

2.对于pad默认为0,自己如果有需要得进行设置。group默认为1.

3.对于卷积和反卷积的维度计算公式:参考博客:https://blog.csdn.net/where_is_my_keyboard/article/details/80328093 

对于convolution:

output = (input + 2 * p - k) / s + 1;

对于deconvolution:

output = (input - 1) * s + k - 2 * p;

其中,input为输入维度,s为stride;k为kernel_size;p表示pad,默认为0.
 

4.在caffe里面若想使用上采样,那么可以利用反卷积的type,对参数进行一定的限制。参考链接:https://www.zhihu.com/question/63890195/answer/214223863

这是文档

A common use case is with the DeconvolutionLayer acting as upsampling. You can upsample a feature map with shape of (B, C, H, W) by any integer factor using the following proto.
layer {
  name: "upsample", type: "Deconvolution"
  bottom: "{{bottom_name}}" top: "{{top_name}}"
  convolution_param {
    kernel_size: {{2 * factor - factor % 2}} stride: {{factor}}
    num_output: {{C}} group: {{C}}
    pad: {{ceil((factor - 1) / 2.)}}
    weight_filler: { type: "bilinear" } bias_term: false
  }
  param { lr_mult: 0 decay_mult: 0 }
}
  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在深度学习中,卷积神经网络(Convolutional Neural Network, CNN)是一种非常重要的模型。其中,卷积层(Convolutional Layer)是CNN的核心组成部分。卷积层中的卷积操作可以有效地提取图像的特征,但是在卷积过程中,会使特征图的尺寸不断缩小,这可能会导致信息的丢失。因此,为了保留更多的特征信息,需要进行上采样Upsampling)或下采样(Downsampling)操作。 下采样是指在特征图中按照一定的规则进行采样,以减小特征图的尺寸。常见的下采样方式有Max Pooling、Average Pooling等。其中,Max Pooling是最常用的下采样方式。Max Pooling将特征图划分为若干个区域,在每个区域中选择最大的特征值作为该区域的代表特征,从而减小特征图的尺寸。 上采样是指在特征图中进行插值操作,以增大特征图的尺寸。常见的上采样方式有反卷积(Deconvolution)、双线性插值(Bilinear Interpolation)等。其中,反卷积是常用的上采样方式之一。反卷积可以将特征图的尺寸扩大到原来的两倍,并且能够保留更多的特征信息。 在神经网络中,通常会使用多个卷积层和池化层来提取特征,其中每一次池化操作都会减小特征图的尺寸,而每一次卷积操作都会增加特征图的深度。在这个过程中,需要根据实际应用场景来选择合适的上采样和下采样方式,以保留更多的特征信息并且避免过拟合。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值