卷积层里的填充和步幅(padding和strides)

目录

一、填充和步幅相关概念

1、填充(padding)

2、步幅(strides)

3、总结 

二、代码实现

1、填充(padding)

2、步幅(strides)

3、小结


一、填充和步幅相关概念

1、填充(padding)

       当输入图片比较小的时候,我们一般会进行填充,填充是指在输入周围添加额外的行/列,填充的行数或列数一般等于卷积核的行数或列数减1,这样经过卷积后的图片不会变小,并且可以保留原始图像的边界信息,以便我们设计更深层次的神经网络。

2、步幅(strides)

       当输入图片比较大的时候,我们一般会使用较大的步幅,步幅是指行/列的滑动步长,可以通过调大步幅大幅降低图像的宽度和高度。例如如果我们发现原始的输入分辨率十分冗余。步幅则可以在这类情况下提供帮助。

3、总结 

二、代码实现

1、填充(padding)

       在应用多层卷积时,我们常常丢失边缘像素。由于我们通常使用小卷积核,因此对于任何单个卷积,我们可能只会丢失几个像素。但随着我们应用许多连续卷积层,累积丢失的像素数就多了。解决这个问题的简单方法即为填充(padding):在输入图像的边界填充元素(通常填充元素是 $0$)。

       例如,在下图中,我们将 $3 \times 3$ 输入填充到 $5 \times 5$,那么它的输出就增加为 $4 \times 4$。阴影部分是第一个输出元素以及用于输出计算的输入和核张量元素:$0\times0+0\times1+0\times2+0\times3=0$

       通常,如果我们添加 $p_h$ 行填充(大约一半在顶部,一半在底部)和 $p_w$ 列填充(左侧大约一半,右侧一半),则输出形状将为:

$(n_h-k_h+p_h+1)\times(n_w-k_w+p_w+1).$

       这意味着输出的高度和宽度将分别增加 $p_h$ 和 $p_w$。在许多情况下,我们需要设置 $p_h=k_h-1$ 和 $p_w=k_w-1$,使输入和输出具有相同的高度和宽度。这样可以在构建网络时更容易地预测每个图层的输出形状。一般 $k_h, h_w$ 取奇数,我们将在高度(宽度)的两侧填充 $p_h/2$ 行($p_w/2$ 列)。

       卷积神经网络中卷积核的高度和宽度通常为奇数,例如1、3、5或7。选择奇数的好处是,保持空间维度的同时,我们可以在顶部和底部填充相同数量的行,在左侧和右侧填充相同数量的列。

       比如,在下面的例子中,我们创建一个高度和宽度为3的二维卷积层,并在所有侧边填充1个像素。给定高度和宽度为8的输入,则输出的高度和宽度也是8。

import torch
from torch import nn

# 为了方便起见,我们定义了一个计算卷积层的函数。
# 此函数初始化卷积层权重,并对输入和输出提高和缩减相应的维数
def comp_conv2d(conv2d, X):
    # 这里的(1,1)表示批量大小和通道数都是1
    X = X.reshape((1, 1) + X.shape) # 元组的相加规则:(1, 1)+(8, 8)=(1, 1, 8, 8)
    Y = conv2d(X)
    # 省略前两个维度:批量大小和通道
    return Y.reshape(Y.shape[2:])

# 请注意,这里每边都填充了1行或1列,因此总共添加了2行或2列
conv2d = nn.Conv2d(1, 1, kernel_size=3, padding=1)  # kernel_size=3、padding=1,以保持输出与输入具有相同的形状。
X = torch.rand(size=(8, 8))
comp_conv2d(conv2d, X).shape
torch.Size([8, 8])

       当卷积核的高度和宽度不同时,我们可以填充不同的高度和宽度,使输出和输入具有相同的高度和宽度。在如下示例中,我们使用高度为5,宽度为3的卷积核,高度和宽度两边的填充分别为2和1。

conv2d = nn.Conv2d(1, 1, kernel_size=(5, 3), padding=(2, 1))
comp_conv2d(conv2d, X).shape
torch.Size([8, 8])

2、步幅(strides)

       在计算互相关时,卷积窗口从输入张量的左上角开始,向下、向右滑动。在前面的例子中,我们默认每次滑动一个元素。但是,有时候为了高效计算或是缩减采样次数,卷积窗口可以跳过中间位置,每次滑动多个元素。

       我们将每次滑动元素的数量称为步幅(stride)。到目前为止,我们只使用过高度或宽度为 $1$ 的步幅,下面我们将使用较大的步幅。如下图是垂直步幅为3,水平步幅为2的二维互相关运算。着色部分是输出元素以及用于输出计算的输入和内核张量元素:

$ 0\times 0+0\times 1+1\times 2+2\times 3=8 $$ $$ 0\times 0+6\times 1+0\times 2+0\times 3=6 $

       可以看到,为了计算输出中第一列的第二个元素和第一行的第二个元素,卷积窗口分别向下滑动三行和向右滑动两列。但是,当卷积窗口继续向右滑动两列时,没有输出,因为输入元素无法填充窗口(除非我们添加另一列填充)。

       通常,当垂直步幅为 $ s_h$、水平步幅为 $s_w$ 时,输出形状为:

$\lfloor(n_h-k_h+p_h+s_h)/s_h\rfloor \times \lfloor(n_w-k_w+p_w+s_w)/s_w\rfloor.$

       下面,我们将高度和宽度的步幅设置为2,从而将输入的高度和宽度减半。

conv2d = nn.Conv2d(1, 1, kernel_size=3, padding=1, stride=2)    # (8-3+2+2)/2=4.5
comp_conv2d(conv2d, X).shape
torch.Size([4, 4])

接下来,看一个稍微复杂的例子。

conv2d = nn.Conv2d(1, 1, kernel_size=(3, 5), padding=(0, 1), stride=(3, 4))
comp_conv2d(conv2d, X).shape
torch.Size([2, 2])

       为了简洁起见,当输入高度和宽度两侧的填充数量分别为 $p_h$ 和 $p_w$ 时,我们称之为填充 $(p_h, p_w)$。当 $p_h = p_w = p$ 时,填充是 $p$。同理,当高度和宽度上的步幅分别为 $s_h$ 和 $s_w$ 时,我们称之为步幅 $(s_h, s_w)$。特别地,当 $s_h = s_w = s$ 时,我们称步幅为 $s$。默认情况下,填充为0,步幅为1。在实践中,我们很少使用不一致的步幅或填充,也就是说,我们通常有 $p_h = p_w$ 和 $s_h = s_w$

3、小结

  • 填充可以增加输出的高度和宽度。这常用来使输出与输入具有相同的高和宽。
  • 步幅可以减小输出的高和宽,例如输出的高和宽仅为输入的高和宽的$1/n$$n$是一个大于1的整数)。
  • 填充和步幅可用于有效地调整数据的维度。
  • 7
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一位卷积层(1D Convolutional Layer)的示例代码,它将输入序列进行卷积操作: ```python import torch.nn as nn class Conv1D(nn.Module): def __init__(self, in_channels, out_channels, kernel_size, stride=1, padding=0): super(Conv1D, self).__init__() self.conv = nn.Conv1d(in_channels, out_channels, kernel_size, stride, padding) self.relu = nn.ReLU() def forward(self, x): x = self.conv(x) x = self.relu(x) return x ``` 这个类继承了 PyTorch 中的 nn.Module 类,表示它是一个可训练模型。它接受四个参数:输入通道数、输出通道数、卷积核大小、步幅填充。在初始化函数中,我们定义了一个 1D 卷积层和一个 ReLU 激活函数。在 forward 函数中,我们首先进行卷积操作,然后将结果通过 ReLU 激活函数。 以下是二维卷积层(2D Convolutional Layer)的示例代码,它将输入图像进行卷积操作: ```python import torch.nn as nn class Conv2D(nn.Module): def __init__(self, in_channels, out_channels, kernel_size, stride=1, padding=0): super(Conv2D, self).__init__() self.conv = nn.Conv2d(in_channels, out_channels, kernel_size, stride, padding) self.relu = nn.ReLU() def forward(self, x): x = self.conv(x) x = self.relu(x) return x ``` 这个类与 1D 卷积层类似,不同之处在于它使用了 nn.Conv2d 类代替了 nn.Conv1d,表示它是一个二维卷积层。它同样接受四个参数:输入通道数、输出通道数、卷积核大小、步幅填充。在 forward 函数中,它同样进行了卷积和 ReLU 操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值