tensorflow 的 Batch Normalization 实现(tf.nn.moments、tf.nn.batch_normalization)

tensorflow 在实现 Batch Normalization(各个网络层输出的归一化)时,主要用到以下两个 api:

  • tf.nn.moments(x, axes, name=None, keep_dims=False) ⇒ mean, variance:
    • 统计矩,mean 是一阶矩,variance 则是二阶中心矩
  • tf.nn.batch_normalization(x, mean, variance, offset, scale, variance_epsilon, name=None)
    • tf.nn.batch_norm_with_global_normalization(t, m, v, beta, gamma, variance_epsilon, scale_after_normalization, name=None)
    • 由函数接口可知,tf.nn.moments 计算返回的 mean 和 variance 作为 tf.nn.batch_normalization 参数进一步调用;

1. tf.nn.moments,矩

tf.nn.moments 返回的 mean 表示一阶矩,variance 则是二阶中心矩;

如我们需计算的 tensor 的 shape 为一个四元组 [batch_size, height, width, kernels],一个示例程序如下:

import tensorflow as tf
shape = [128, 32, 32, 64]
a = tf.Variable(tf.random_normal(shape))        # a:activations
axis = list(range(len(shape)-1))                # len(x.get_shape())
a_mean, a_var = tf.nn.moments(a, axis)

这里我们仅给出 a_mean, a_var 的维度信息,

sess = tf.Session()
sess.run(tf.global_variables_initalizer())

sess.run(a_mean).shape      # (64, )    
sess.run(a_var).shape       # (64, )    ⇒ 也即是以 kernels 为单位,batch 中的全部样本的均值与方差

references

转载于:https://www.cnblogs.com/mtcnn/p/9421624.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值