谈谈Tensorflow的Batch Normalization的使用

本文探讨了TensorFlow实现Batch Normalization的过程,重点介绍了用于计算统计矩的tf.nn.moments API,该API用于计算输出数据的平均值(mean)和方差(variance)。在训练神经网络时,Batch Normalization有助于防止过拟合,通过在特定维度上应用归一化。参数x代表数据,axes定义了进行归一化的轴,keep_dims则决定是否保留统计操作后的维度。
摘要由CSDN通过智能技术生成

tensorflow 在实现Batch Normalization (各个网络层输出的结果归一化,以防止过拟合)时,主要用到一下两个API。分别是

1)tf.nn.moments(x, axes, name=None, keep_dims=False) ⇒ mean, variance: 

其中计算的得到的为统计矩,mean 是一阶矩,variance 是二阶中心矩 各参数的另一为

  • x 可以理解为我们输出的数据,形如 [batchsize, height, width, kernels]
  • axes 表示在哪个维度上求解,是个list,例如 [0, 1, 2]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值