全连接层公式推导

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
ResNet-152是一种深度残差网络,它是ResNet系列中的一种变体,具有152层的深度。下面是ResNet-152的公式推导: 1. 输入:假设输入为x,维度为H×W×C,其中H、W分别表示输入图像的高度和宽度,C表示输入图像的通道数。 2. 卷积层:首先,对输入x进行一个卷积操作,使用一个大小为7×7的卷积核,步长为2,填充为3,得到一个特征图。这个卷积操作可以表示为: y = conv(x, W1) + b1 其中conv表示卷积操作,W1表示卷积核的权重参数,b1表示偏置项。 3. 批量归一化:为了加速训练过程并提高模型的泛化能力,对卷积层的输出进行批量归一化操作: y = batch_norm(y) 其中batch_norm表示批量归一化操作。 4. ReLU激活函数:对归一化后的特征图进行ReLU激活函数操作: y = ReLU(y) 其中ReLU表示修正线性单元激活函数。 5. 残差块:ResNet-152网络中的主要组成部分是残差块。每个残差块由多个卷积层和批量归一化层组成。具体而言,ResNet-152中使用了多个残差块,每个残差块内部有多个卷积层和批量归一化层。每个残差块的输入和输出之间通过跳跃连接进行连接,以便在训练过程中更好地传递梯度。 6. 全局平均池化:在最后一个残差块之后,对特征图进行全局平均池化操作,将特征图的高度和宽度维度降为1,得到一个C维的特征向量。 7. 全连接层:最后,将全局平均池化的输出连接到一个全连接层,该全连接层将特征向量映射到所需的输出类别数量上。 以上是ResNet-152的公式推导过程。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SimpleZihao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值