tensorflow中的global_step

一、tensorflow中的global_step

1、tf.train.get_or_create_global_step()

  bert中的optimization.py中有以下一段代码:

def create_optimizer(loss, init_lr, num_train_steps):
	global_step = tf.train.get_or_create_global_step()
	"""省略无用代码"""
	optimizer = AdamWeightDecayOptimizer(*args)
	
	"""省略无用代码"""
	train_op = optimizer.apply_gradients(
        zip(grads, tvars), global_step=global_step)
        
    """global_step正常是无需手动更新的, 但这里手动实现了Adam,所以需要赋值更新。"""
    new_global_step = global_step + 1
    train_op = tf.group(train_op, [global_step.assign(new_global_step)])
    return train_op

从该段代码说明了以下几点:

  • tensorflow直接调用的optimizer是包含global_step的更新的,无需自己手动实现
  • tensorflow的step不是一个batch_size, 也不是一个epoch, 而是一次梯度更新。
  • 通过调用tf.train.get_or_create_global_step(), 可以获得当前优化步数。
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值