batchnorm问题

tf.cond(),提示了为什么在tensorflow中需要tf.cond(),这个函数

tf.nn.moments()

import tensorflow as tf 
img = tf.Variable(tf.random_normal([128, 32, 32, 64]))
axis = list(range(len(img.get_shape()) - 1))
axis=[0]
mean, variance = tf.nn.moments(img, axis)
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    mean_=mean.eval()

这里axis=0代表,取每个batch的平均值,一般都是用axis=[0,1,2],这时候生成的mean为(64,)代表输入的每一个通道取平均 

 

执行以下代码,

import tensorflow as tf 


is_traing = tf.placeholder(dtype=tf.bool)
x = tf.ones([1, 2, 2, 3])

x_norm = tf.layers.batch_normalization(x, training=is_traing)

update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)

会出现以下图片 

整个batchnorm看这个网址 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值