卷积层、卷积层里的填充和步幅

多层感知机

正式总结卷积层之前,先把上次多层感知机落下的一点内容补一补。

几个概念:

训练数据集:训练模型参数。

验证数据集:选择模型超参数。

训练误差:模型在训练数据上的误差。

泛化误差:模型在新数据上的误差。

结论:

非大数据集上通常使用k-折交叉验证。

权重衰退通过L2正则项使得模型参数不会过大,从而控制模型复杂度。

正则项权重是控制模型复杂度的超参数。

让训练更稳定的方法:

让梯度在合理的范围

将乘法变加法。

归一化。

合理的权重初始和激活函数。

卷积层

二维卷积层

输入X,卷积核W,输出Y=X*W+b,w和b是可学习的参数

一维和三维交叉相关

一维:

比如说,文本,语言,时间序列。

三维:

比如说视频,医学影像,气象地图。

卷积层将输入和核矩阵进行交叉相关,加上偏移后得到输出。

核矩阵和偏移是可学习的参数。

核矩阵的大小是超参数。

互相关运算(卷积层)代码实现:

import torch
from torch import nn
from d2l import torch as d2l


def corr2d(X, K):
    # 计算二维互相关运算
    h, w = K.shape
    Y = torch.zeros((X.shape[0] - h + 1, X.shape[1] - w + 1))
    for i in range(Y.shape[0]):
        for j in range(Y.shape[1]):
            Y[i, j] = (X[i:i + h, j:j + w] * K).sum()
    return Y


X = torch.tensor([[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]])
K = torch.tensor([[0.0, 1.0], [2.0, 3.0]])
print(corr2d(X, K))
tensor([[19., 25.],
        [37., 43.]])

实现二维卷积层(检测图像中不同颜色的边缘)

class Conv2D(nn.Module):
    def __int__(self,kernel_size):
        super().__int__()
        self.weight=nn.Parameter(torch.range(kernel_size))
        self.bias=nn.Parameter(torch.zeros(1))

    def forward(self,x):
        return corr2d(x,self.weight)+self.bias

X=torch.ones((6,8))
X[:,2:6]=0
print(X)

K=torch.tensor([[1.0,-1.0]])
Y=corr2d(X, K)
print(Y)

#卷积核k只可以检测垂直边缘
print(corr2d(X.t(),K))
tensor([[1., 1., 0., 0., 0., 0., 1., 1.],
        [1., 1., 0., 0., 0., 0., 1., 1.],
        [1., 1., 0., 0., 0., 0., 1., 1.],
        [1., 1., 0., 0., 0., 0., 1., 1.],
        [1., 1., 0., 0., 0., 0., 1., 1.],
        [1., 1., 0., 0., 0., 0., 1., 1.]])
tensor([[ 0.,  1.,  0.,  0.,  0., -1.,  0.],
        [ 0.,  1.,  0.,  0.,  0., -1.,  0.],
        [ 0.,  1.,  0.,  0.,  0., -1.,  0.],
        [ 0.,  1.,  0.,  0.,  0., -1.,  0.],
        [ 0.,  1.,  0.,  0.,  0., -1.,  0.],
        [ 0.,  1.,  0.,  0.,  0., -1.,  0.]])
tensor([[0., 0., 0., 0., 0.],
        [0., 0., 0., 0., 0.],
        [0., 0., 0., 0., 0.],
        [0., 0., 0., 0., 0.],
        [0., 0., 0., 0., 0.],
        [0., 0., 0., 0., 0.],
        [0., 0., 0., 0., 0.],
        [0., 0., 0., 0., 0.]])

学习由X生成Y的卷积核

conv2d=nn.Conv2d(1,1,kernel_size=(1,2),bias=False)
X=X.reshape((1,1,6,8))
Y=Y.reshape((1,1,6,7))
for i in range(10):
    Y_hat=conv2d(X)
    l=(Y_hat-Y)**2
    conv2d.zero_grad()
    l.sum().backward()
    conv2d.weight.data[:]-=3e-2*conv2d.weight.grad
    if(i+1)%2==0:
        print(f'batch {i+1},loss{l.sum():.3f}')

# 所学的卷积核的权重张量
print(conv2d.weight.data.reshape((1,2)))
batch 2,loss11.545
batch 4,loss4.023
batch 6,loss1.530
batch 8,loss0.607
batch 10,loss0.245
tensor([[ 1.0442, -0.9339]])

填充和步幅

填充就是在输入周围添加额外的行/列,填充减小的输出大小与层数线性相关

步幅是指行/列的滑动步长

填充和步幅是卷积层的超参数。

填充在输入周围添加额外的行/列,来控制输出形状的减少量。

步幅是每次滑动核窗口时的行/列的步长,可以成倍的减少输出形状。

在所有侧边填充1个像素

def comp_conv2d(conv2d,X):
    X=X.reshape((1,1)+X.shape)
    Y=conv2d(X)
    return  Y.reshape(Y.shape[2:])

conv2d=nn.Conv2d(1,1,kernel_size=3,padding=1)
X=torch.rand(size=(8,8))
print(comp_conv2d(conv2d,X).shape)

#填充不同的高度和宽度
conv2d=nn.Conv2d(1,1,kernel_size=(5,3),padding=(2,1))
print(comp_conv2d(conv2d,X).shape)
torch.Size([8, 8])
torch.Size([8, 8])

将高度和宽度的步幅设置为2

conv2d=nn.Conv2d(1,1,kernel_size=3,padding=1,stride=2)
print(comp_conv2d(conv2d,X).shape)
torch.Size([4, 4])

一个稍微复杂的例子

conv2d=nn.Conv2d(1,1,kernel_size=(3,5),padding=(0,1),stride=(3,4))
print(comp_conv2d(conv2d,X).shape)
torch.Size([2, 2])

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是一位卷积层(1D Convolutional Layer)的示例代码,它将输入序列进行卷积操作: ```python import torch.nn as nn class Conv1D(nn.Module): def __init__(self, in_channels, out_channels, kernel_size, stride=1, padding=0): super(Conv1D, self).__init__() self.conv = nn.Conv1d(in_channels, out_channels, kernel_size, stride, padding) self.relu = nn.ReLU() def forward(self, x): x = self.conv(x) x = self.relu(x) return x ``` 这个类继承了 PyTorch 中的 nn.Module 类,表示它是一个可训练模型。它接受四个参数:输入通道数、输出通道数、卷积核大小、步幅填充。在初始化函数中,我们定义了一个 1D 卷积层和一个 ReLU 激活函数。在 forward 函数中,我们首先进行卷积操作,然后将结果通过 ReLU 激活函数。 以下是二维卷积层(2D Convolutional Layer)的示例代码,它将输入图像进行卷积操作: ```python import torch.nn as nn class Conv2D(nn.Module): def __init__(self, in_channels, out_channels, kernel_size, stride=1, padding=0): super(Conv2D, self).__init__() self.conv = nn.Conv2d(in_channels, out_channels, kernel_size, stride, padding) self.relu = nn.ReLU() def forward(self, x): x = self.conv(x) x = self.relu(x) return x ``` 这个类与 1D 卷积层类似,不同之处在于它使用了 nn.Conv2d 类代替了 nn.Conv1d,表示它是一个二维卷积层。它同样接受四个参数:输入通道数、输出通道数、卷积核大小、步幅填充。在 forward 函数中,它同样进行了卷积和 ReLU 操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

暗紫色的乔松(-_^)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值