1.问题
可以直接说的是,tensorflow在训练的时候可以直接保存为pb类型的文件。至于如何保存为pb类型格式,请自行百度。但有时候我们希望在已有的checkpoint类型的文件下想直接转换成pb也是有需求的。
那么ckpt类型和pb类型有什么区别呢?
ckpt:
这种方式有几个特点,
- 这种模型文件是依赖 TensorFlow 的,只能在其框架下使用;
- 在恢复模型之前还需要再定义一遍网络结构,然后才能把变量的值恢复到网络中。
pb:
1.谷歌推荐的保存模型的方式是保存模型为 PB 文件,它具有语言独立性,可独立运行,封闭的序列化格式,任何语言都可以解析它,它允许其他语言和深度学习框架读取、继续训练和迁移 TensorFlow 的模型;
2. 保存为 PB 文件时候,模型的变量都会变成固定的,导致模型的大小会大大减小,适合在手机端运行。
ckpt只能用在tensorflow的框架,pb可以使用在大多数的语言框架
2.如何转换
def freeze_graph(input_checkpoint, output_graph):
'''
:param input_checkpoint:
:param output_graph: PB模型保存路径
:return:
'''
# 指定输出的节点名称,该节点名称必须是原模型中存在的节点
output_node_names = "CTCBeamSearchDecoder"
saver = tf.train.import_meta_graph(input_checkpoint + '.meta', clear_devices=True)
with tf.Session() as sess:
saver.restore(sess, input_checkpoint) # 恢复图并得到数据
graph_def = tf.get_default_graph().as_graph_def()
output_graph_def = graph_util.convert_variables_to_constants( # 模型持久化,将变量值固定
sess=sess,
input_graph_def=graph_def, # 等于:sess.graph_def
output_node_names=output_node_names.split(",")) # 如果有多个输出节点,以逗号隔开
with tf.gfile.GFile(output_graph, "wb") as f: # 保存模型
f.write(output_graph_def.SerializeToString()) # 序列化输出
print("%d ops in the final graph." % len(output_graph_def.node)) # 得到当前图有几个操作节点