tf生成的ckpt各个文件的作用和tf.train.Saver()

—checkpoint 文件保存了一个目录下所有的模型文件列表,就是保存的所有的模型位置
在这里插入图片描述

—model.ckpt-240000.data-00000-of-00001 文件保存了TensorFlow程序中每一个变量的取值

—model.ckpt-240000.index

—model.ckpt-240000.meta 保存了tensorflow的网络结构图,例如一个神经网络,各个网络层之间的安排

这里的.index还不是很清楚作用,但是.meta和.data有了些许的了解。
我们通常在利用saver.restore(sess,’.ckpt’)之前都要提前建立好相应的变量,但是有的时候我们加载一个别人训练的模型,并不需要知道内部的详细结构,这个时候可以利用.meta文件进行网络结构的建立。
下面是官网给出的例子,生成了上述的medel_ex1四个文件

# Saving contents and operations.
v1 = tf.placeholder(tf.float32, name="v1")
v2 = tf.placeholder(tf.float32, name="v2")
v3 = tf.mul(v1, v2)
vx = tf.Variable(10.0, name="vx")
v4 = tf.add(v3, vx, name="v4")
saver = tf.train.Saver([vx])
sess = tf.Session()
sess.run(tf.initialize_all_variables())
sess.run(vx.assign(tf.add(vx, vx)))
result = sess.run(v4, feed_dict={v1:12.0, v2:3.3})
print(result)
saver.save(sess, "./model_ex1")

假如我们不知道已经保存了那些变量,这是就要利用tf.train.import_meta_graph加载网络结构,获得网络结构后还要再将变量值载入图上,这直接利用saver.restore就可以了

# Restoring variables and running operations.
saver = tf.train.import_meta_graph("./model_ex1.meta")
sess = tf.Session()
saver.restore(sess, "./model_ex1")
result = sess.run("v4:0", feed_dict={"v1:0": 12.0, "v2:0": 3.3})
print(result)

如果我们想要得到ckpt文件中的所有变量值利用如下代码就好了,最后输出了vx 和它的值

from tensorflow.python import pywrap_tensorflow
checkpoint_path = os.path.join(model_dir, "model.ckpt")
reader = pywrap_tensorflow.NewCheckpointReader(checkpoint_path)
var_to_shape_map = reader.get_variable_to_shape_map()
for key in var_to_shape_map:
    print("tensor_name: ", key)
    print(reader.get_tensor(key)) # Remove this is you want to print only variable names

在这里插入图片描述
tf.train.Saver()

如果你想按时间保存训练模型,执行下面的代码:


#saves a model every 2 hours and maximum 4 latest models are saved.
saver = tf.train.Saver(max_to_keep=4, keep_checkpoint_every_n_hours=2)
#最多保存四个模型,每两个小时保存一次

tf.train.Saver()括号中如果什么都不写,将保存程序中所有的变量,如果你只想保存特定的变量可以执行在括号里添加想保存的变量名,可以是list或者dict


import tensorflow as tf
w1 = tf.Variable(tf.random_normal(shape=[2]), name='w1')
w2 = tf.Variable(tf.random_normal(shape=[5]), name='w2')
saver = tf.train.Saver([w1,w2])
sess = tf.Session()
sess.run(tf.global_variables_initializer())
saver.save(sess, 'my_test_model',global_step=1000)

使用saver.restore()可以重新加载别人定义好的图


with tf.Session() as sess:
  new_saver = tf.train.import_meta_graph('my_test_model-1000.meta') #加载图结构
  new_saver.restore(sess, tf.train.latest_checkpoint('./'))  #加载变量值

通过上述的方法只能获得Variable的变量内容值,并不能获得占位符和操作符,如果你想得到其中的占位符和操作符,需要通过graph.get_tensor_by_name()


#How to access saved variable/Tensor/placeholders 
w1 = graph.get_tensor_by_name("w1:0")
## How to access saved operation
op_to_restore = graph.get_tensor_by_name("op_to_restore:0")
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值