1. global_step在定义优化器的时候用到,tensorflow在每次迭代会自动加1:
关于这个得解释可以参考
https://blog.csdn.net/leviopku/article/details/78508951
optimizer = tf.train.MomentumOptimizer(learning_rate=self.learning_rate_node, momentum=momentum, **self.opt_kwargs).minimize(self.net.cost, global_step=global_step)
2.但是, 特别需要注意的是,如果你使用了迁移学习,那你就算将global_step的值初始化为0,进行完第一次迭代后,global_step的值会变成你迁移模型迭代的次数加1,例如,你迁移的模型之前训练了10000次,那迭代完一次后,查看global_step的值,会发现它变成了10001.