卷积核的尺寸、数量、通道数

首先明确两点

CNN的卷积核通道数 = 卷积输入层的通道数;
CNN的卷积输出层通道数 = 卷积核的个数;

1. 输入矩阵x格式:四个维度,依次为:样本数、图像高度、图像宽度、图像通道数

  • 输入 x:[batch, height, width, in_channel] 四个维度
  • 权重 w:[height, width, in_channel, out_channel]
  • 输出 y:[batch, height, width, out_channel]

在这里插入图片描述

如图所示:


Input:batch=1、height=8、width=8、in_channel=3 (四维矩阵)


Kernels:卷积核大小 3x3 (决定输出层特征尺寸)

卷积核通道数:3 (RGB)

卷积核个数:5 (决定输出通道数)


输出尺寸计算公式:

在这里插入图片描述

2.卷积过程示意图(注意偏执大小)

在这里插入图片描述
输入尺寸7x7,通道数3,2个卷积核w0和w1,大小都是3x3, 所以卷积核函数形式为3x3x3x2

pytorch查看通道数 维数 尺寸大小方式

查看tensor

x.shape # 尺寸
x.size() # 形状
x.ndim # 维数

pytorch中与维度/变换相关的几个函数


torch.size ():可用来查看变换后的矩阵的维度

>>>import torch
>>>a = torch.Tensor([[[1, 2, 3], [4, 5, 6]]])
>>>a.size()
torch.Size([1, 2, 3])

torch.view():把原本的tensor尺寸,转变为你想要的尺寸(-1代表自适应)

>>>b=a.view(-1, 3, 2)
>>>b
tensor([[[1., 2.],
         [3., 4.],
         [5., 6.]]])
>>>b.size()
torch.Size([1, 3, 2])

torch.squeeze()和torch.unsqueeze()

torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为一的维度之后就变成(3)行。

squeeze(a)就是将a中所有为1的维度删掉。不为1的维度没有影响。a.squeeze(N) 就是去掉a中指定的维数为一的维度。

还有一种形式b=torch.squeeze(a,N),即若a的N维为一则去掉。

>>> b.squeeze(2).size()
torch.Size([1, 3, 2])
>>> b.squeeze(0).size()
torch.Size([3, 2]))

torch.unsqueeze() 函数主要是对数据维度进行扩充。给指定位置加上维数为一的维度,比如原本有个三行的数据(3),在0的位置加了一维就变成一行三列(1,3)。

a.squeeze(N) 就是在a中指定位置N加上一个维数为1的维度。还有一种形式就是b=torch.squeeze(a,N) a就是在a中指定位置N加上一个维数为1的维度。

>>> b.unsqueeze(2).size()
torch.Size([1, 3, 1, 2])
>>> b.unsqueeze(2)
tensor([[[[1., 2.]],
  [[3., 4.]],
  [[5., 6.]]]])

torch.permute()

这个函数表示,将原始的tensor,按照自己期望的位置重新排序,例如原始tensor的第0、1、2维分别是1、3、2,那么当我执行permute(2, 0, 1),则将第三维放在最前,第一维放在中间,第二维放在最后,也就变成了2 * 1 * 3,注意这里表示的维数的index,而不是具体几维:

>>>b
tensor([[[1., 2.],
         [3., 4.],
         [5., 6.]]])
>>> b.permute(2, 0, 1)
tensor([[[1., 2.],
         [3., 4.],
         [5., 6.]]])
>>>b.size()
torch.Size([2, 1, 3])
  • 10
    点赞
  • 60
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 是的,对于每一个通道,卡积会对其进行卡积操作。卡积是一种常见的神经网络优化技术,通过限制神经网络中参数量,可以减少过拟合问题,提高模型的泛化能力。在训练过程中,卡积会将每个通道的输出乘以一个标量因子,这个标量因子是通过训练得到的,并且在整个网络的训练过程中保持不变。 ### 回答2: 卷积核会对每一个通道进行卷积。 在卷积神经网络中,卷积核是应用于输入图像的滤波器,用于提取图像的特征。如果输入图像是多通道的,比如RGB图像有三个通道卷积核会对每一个通道进行独立的卷积操作。 在卷积操作中,卷积核会在输入图像的每一个位置上与输入图像的对应通道进行卷积运算,得到一个输出特征图的对应位置和对应通道的值。每一个通道都有自己的卷积核,用于提取该通道上的特征。 通过对每一个通道进行卷积卷积核可以同时在多个通道上提取特征,从而更全面地理解输入图像。这种多通道卷积可以减少信息损失,并且能够捕捉到更丰富和更复杂的特征。 总之,卷积核会对每一个通道进行卷积操作,以便在多通道输入图像中提取出更全面和丰富的特征。 ### 回答3: 卷积核的作用是在图像或信号上进行滤波或特征提取。每一个卷积核都有固定的大小和权重,其中包含了一个正方形的二维矩阵。卷积核尺寸通常比输入的图像或信号小很多。 当我们在RGB图像上应用卷积操作时,卷积核会对每一个通道进行卷积。RGB图像由红、绿、蓝三个通道组成,每个通道对应一个灰度图像,表示了不同颜色通道下的图像。 卷积层的输出也是由三个通道组成,每个通道对应一个卷积核在原始图像上的滤波结果。每个通道的输出都是通过对相应通道中的卷积核进行卷积操作得到的。 因此,卷积核会对每一个通道进行卷积,分别提取每个通道的特征信息。这样能够更好地捕捉图像中不同通道之间的空间依赖关系,并且可以更好地保留和表达颜色信息。 总结起来,卷积核对于RGB图像的卷积操作会分别对红、绿、蓝三个通道进行卷积,得到对应通道的滤波结果,实现特征提取和图像处理的目的。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值