自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 卷积核在卷积层中的作用

这是因为在卷积神经网络中,通常情况下,卷积核的深度(即通道数)是由网络的架构和设计决定的,并且往往在网络的不同层中是固定的。通常情况下,每个通道对应一个不同的卷积核,每个卷积核会学习捕捉输入数据的不同特征。假设我们有一个5×5的彩色图像(通道数为3),和一个3×3×3 的卷积核,我们需要计算每个通道的卷积。通常情况下,在卷积神经网络中,一个卷积层的输出通道数(或者说特征图的数量)等于该层使用的卷积核的数量。例如,当我们说一个层有一个 3x3 的卷积核时,我们默认了这个卷积核的深度与输入数据的通道数相同。

2024-05-20 15:42:28 639

原创 梯度下降、反向传播

首先举个例子是,当前你拥有一个神经网络模型用于预测某一个值,此时输出层包括很多个神经元都给出了自己的预测值,我们要计算预测值(模型输出)与实际标签之间的差异,那么此时损失函数可以设置为均方误差。前向传播用于计算模型的输出,而反向传播用于沿着网络反向传播损失,并计算每个参数的梯度。这样,我们就可以得到每个参数的梯度,然后使用梯度下降来更新参数,从而最小化损失函数。在使用梯度下降进行优化模型,以使损失函数最小化过程中,我们需要知道每个参数对损失函数的影响程度,也就是梯度。是学习率,它决定了参数更新的步长。

2024-05-16 21:49:48 1684

原创 pytorch中池化层实例以及与池化层与卷积层区别

1、卷积操作: 在卷积操作中,卷积核在输入图像上进行滑动,通过与输入图像的每个位置进行点乘并求和,从而计算出输出特征图的每个像素值。2、池化操作: 在池化操作中,池化窗口在输入图像上进行滑动,但是池化操作不涉及可学习的参数。2、平均池化(Average Pooling): 在平均池化中,池化窗口在输入数据上滑动,每次取窗口内的平均值作为输出。总的来说,池化层通过保留关键特征、降低数据维度、减少计算量等方式,为神经网络模型提供了更加高效和有效的特征表示,是深度学习中不可或缺的一部分。四、结果以及完整代码。

2024-05-11 22:51:07 259

原创 pytorch卷积层中通道的理解以及实例

这中间还有很多容易出现的错误,例如【AssertionError: Input tensor input format are different】是由于writer.add_image和writer.add_images之间的区别。本次问题来源于B站小土堆pytorch入门-神经网络-卷积层,代码也是视频中提供的例子。二、同一个卷积层中输入的通道和输出的通道数目要一致吗?

2024-05-11 00:00:23 790 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除