BN原理 & 其前向传播、反向传播代码

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在深度学习中,Batch Normalization(BN)层和最大池化层的反向传播过程是不同的。 对于BN层,反向传播的过程可以通过以下步骤进行: 1. 计算BN层的传播:首先,对于每个批次中的样本,计算其均值和方差。然后,使用这些均值和方差对输入数据进行标准化,并将其缩放和平移为输出。 2. 计算BN层的反向传播:在计算BN层的反向传播时,需要考虑到传播中标准化和缩放的操作。以下是反向传播的步骤: - 计算关于平移和缩放参数的梯度:通过链式法则,计算损失函数相对于平移参数和缩放参数的梯度。 - 计算关于输入数据的梯度:将平移和缩放参数的梯度乘以对应的标准化和缩放操作的导数,并将它们求和得到输入数据的梯度。 对于最大池化层,反向传播的步骤如下: 1. 在传播过程中,最大池化层会记录下每个子区域中最大值的位置。 2. 在反向传播过程中,将损失函数关于输出值的梯度传播回来。这时,只有最大值所在的位置上的梯度会被传播,其他位置上的梯度都为零。 3. 最大池化层会将梯度传播到上一层,根据传播时记录的最大值位置,将梯度放置在对应的位置上。 这样,BN层和最大池化层就完成了反向传播过程。需要注意的是,不同的深度学习框架可能有不同的实现方式,但这里给出的是一般的反向传播思路。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值