转自stackoverflow:https://stackoverflow.com/questions/55757380/get-input-and-output-node-name-from-ckpt-and-meta-files-tensorflow
import tensorflow as tf
from tensorflow.summary import FileWriter
sess = tf.Session()
tf.train.import_meta_graph("your-meta-graph-file.meta")
FileWriter("__tb", sess.graph)
上述代码可将恢复模型meta文件,然后使用tensorboard可视化
tensorboard --logdir __tb
如我的模型结构如下:
在这之后转为pb: (以下转自:https://blog.csdn.net/guyuealian/article/details/82218092)
import tensorflow as tf
from tensorflow.python.framework import graph_util
def freeze_graph(input_checkpoint,output_graph):
'''
:param input_checkpoint:
:param output_graph: PB模型保存路径
:return:
'''
# checkpoint = tf.train.get_checkpoint_state(model_folder) #检查目录下ckpt文件状态是否可用
# input_checkpoint = checkpoint.model_checkpoint_path #得ckpt文件路径
# 指定输出的节点名称,该节点名称必须是原模型中存在的节点
output_node_names = "pred_hmap"
saver = tf.train.import_meta_graph(input_checkpoint + '.meta', clear_devices=True)
graph = tf.get_default_graph() # 获得默认的图
input_graph_def = graph.as_graph_def() # 返回一个序列化的图代表当前的图
with tf.Session() as sess:
saver.restore(sess, input_checkpoint) #恢复图并得到数据
output_graph_def = graph_util.convert_variables_to_constants( # 模型持久化,将变量值固定
sess=sess,
input_graph_def=input_graph_def,# 等于:sess.graph_def
output_node_names=output_node_names.split(","))# 如果有多个输出节点,以逗号隔开
with tf.gfile.GFile(output_graph, "wb") as f: #保存模型
f.write(output_graph_def.SerializeToString()) #序列化输出
print("%d ops in the final graph." % len(output_graph_def.node)) #得到当前图有几个操作节点
# for op in graph.get_operations():
# print(op.name, op.values())
input_checkpoint = "./save/model/model.ckpt-61236"
output_graph = "frozen_model.pb"
freeze_graph(input_checkpoint,output_graph)
其中output_node_names就是以上tensorboard中找到的输出节点,再讲input_checkpoint指定为自己的文件