吴恩达深度学习笔记(54)-测试时的 Batch Norm

在测试阶段,由于无法像训练时那样使用整个mini-batch计算均值和方差,Batch Norm需要通过指数加权平均来估计μ和σ²。在训练过程中,每个mini-batch的μ和σ²被跟踪并更新,最终用于测试时单个样本的归一化处理。这种方法确保了网络在测试时的稳定性和准确性。
摘要由CSDN通过智能技术生成

测试时的 Batch Norm(Batch Norm at test time)
Batch归一化将你的数据以mini-batch的形式逐一处理,但在测试时,你可能需要对每个样本逐一处理,我们来看一下怎样调整你的网络来做到这一点。

吴恩达深度学习笔记(54)-测试时的 Batch Norm
回想一下,在训练时,这些就是用来执行Batch归一化的等式。

在一个mini-batch中,你将mini-batch的z((i))值求和,计算均值,所以这里你只把一个mini-batch中的样本都加起来,我用m来表示这个mini-batch中的样本数量,而不是整个训练集。然后计算方差,再算z_norm((i)),即用均值和标准差来调整,加上ε是为了数值稳定性。̃z是用γ和β再次调整z_norm得到的。

请注意用于调节计算的μ和σ2是在整个mini-batch上进行计算,但是在测试时,你可能不能将一个mini-batch中的64,128或256个样本同时处理,因此你需要用其它方式来得到μ和σ2,而且如果你只有一个样本,一个样本的均值和方差没有意义。

那么实际上,为了将你的神经网络运用于测试,就需要单独估算μ和σ^2,在典型的Batch归一化运用中,你需要用一个指数加权平均来估算,这个平均数涵盖了所有mini-batch,接下来我会具体解释。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值