cnn 反向传播推导_在CNN中的反向传播

本文详细介绍了卷积神经网络(CNN)的反向传播过程,利用链式法则逐步计算从输出到输入的梯度。首先阐述了链式法则的基本原理,接着在卷积层中应用该法则,通过具体的例子展示了如何计算局部梯度和卷积核的梯度。总结了在CNN中,反向传播本质上也是一种卷积操作。
摘要由CSDN通过智能技术生成

本文使用 Zhihu On VSCode 创作并发布

此文为翻译.

1. 链式法则

先理解一下在反向传播中的链式法则。 假设有下面这个等式:

我们可以把它划分成两个等式:

下面让我们画出关于

的计算图,其中

e09b2636aeea64b3c7ca44d00dc22203.png 当我们按照上图从左到右进行计算时(前向传播),可以得到

现在让我们回到反向传播阶段。我们计算梯度从右往左,因此最后,我们可以得到关于我们的输入

的梯度:
。 在从右往左进行计算时,在乘积门,我们可以得到
, 在加和门我们可以得到

28229d0efd6146defb43af2b733a6e4f.png 我们希望获得
,但是目前我们只获得了
,那么我们达到我们的目标呢。 这里就可以使用链式法则来进行推导,通过链式法则,我们可以计算

63e062d550eb4829972c2926379ba22f.png 那么我们可以计算得到
如下:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值