—checkpoint 文件保存了一个目录下所有的模型文件列表,就是保存的所有的模型位置
—model.ckpt-240000.data-00000-of-00001 文件保存了TensorFlow程序中每一个变量的取值
—model.ckpt-240000.index
—model.ckpt-240000.meta 保存了tensorflow的网络结构图,例如一个神经网络,各个网络层之间的安排
这里的.index还不是很清楚作用,但是.meta和.data有了些许的了解。
我们通常在利用saver.restore(sess,’.ckpt’)之前都要提前建立好相应的变量,但是有的时候我们加载一个别人训练的模型,并不需要知道内部的详细结构,这个时候可以利用.meta文件进行网络结构的建立。
下面是官网给出的例子,生成了上述的medel_ex1四个文件
# Saving contents and operations.
v1 = tf.placeholder(tf.float32, name="v1")
v2 = tf.placeholder(tf.float32, name="v2")
v3 = tf.mul(v1, v2)
vx = tf.Variable(10.0, name="vx")
v4 = tf.add(v3, vx, name="v4")
saver = tf.train.Saver([vx])
sess = tf.Session()
sess.run(tf.initialize_all_variables())
sess.run(vx.assign(tf.add(vx, vx)))
result = sess.run(v4, feed_dict={v1:12.0, v2:3.3})
print(result)
saver.save(sess, "./model_ex1")
假如我们不知道已经保存了那些变量,这是就要利用tf.train.import_meta_graph加载网络结构,获得网络结构后还要再将变量值载入图上,这直接利用saver.restore就可以了
# Restoring variables and running operations.
saver = tf.train.import_meta_graph("./model_ex1.meta")
sess = tf.Session()
saver.restore(sess, "./model_ex1")
result = sess.run("v4:0", feed_dict={"v1:0": 12.0, "v2:0": 3.3})
print(result)
如果我们想要得到ckpt文件中的所有变量值利用如下代码就好了,最后输出了vx 和它的值
from tensorflow.python import pywrap_tensorflow
checkpoint_path = os.path.join(model_dir, "model.ckpt")
reader = pywrap_tensorflow.NewCheckpointReader(checkpoint_path)
var_to_shape_map = reader.get_variable_to_shape_map()
for key in var_to_shape_map:
print("tensor_name: ", key)
print(reader.get_tensor(key)) # Remove this is you want to print only variable names
tf.train.Saver()
如果你想按时间保存训练模型,执行下面的代码:
#saves a model every 2 hours and maximum 4 latest models are saved.
saver = tf.train.Saver(max_to_keep=4, keep_checkpoint_every_n_hours=2)
#最多保存四个模型,每两个小时保存一次
tf.train.Saver()括号中如果什么都不写,将保存程序中所有的变量,如果你只想保存特定的变量可以执行在括号里添加想保存的变量名,可以是list或者dict
import tensorflow as tf
w1 = tf.Variable(tf.random_normal(shape=[2]), name='w1')
w2 = tf.Variable(tf.random_normal(shape=[5]), name='w2')
saver = tf.train.Saver([w1,w2])
sess = tf.Session()
sess.run(tf.global_variables_initializer())
saver.save(sess, 'my_test_model',global_step=1000)
使用saver.restore()可以重新加载别人定义好的图
with tf.Session() as sess:
new_saver = tf.train.import_meta_graph('my_test_model-1000.meta') #加载图结构
new_saver.restore(sess, tf.train.latest_checkpoint('./')) #加载变量值
通过上述的方法只能获得Variable的变量内容值,并不能获得占位符和操作符,如果你想得到其中的占位符和操作符,需要通过graph.get_tensor_by_name()
#How to access saved variable/Tensor/placeholders
w1 = graph.get_tensor_by_name("w1:0")
## How to access saved operation
op_to_restore = graph.get_tensor_by_name("op_to_restore:0")