0 模型训练之后
当模型在几百万次迭代之后终于收敛,在验证集表现的也不错之后,是时候可以把它做成真正的服务了。c++登场……..
以下代码可以保存一个最简单的图模型:y = a * x + b(标量)
import tensorflow as tf
def save():
x = tf.placeholder(dtype=tf.float32, shape=[], name='x')
with tf.variable_scope('beginner'):
a = tf.Variable(initial_value=.1, name='a', dtype=tf.float32)
b = tf.Variable(initial_value=0, name='b', dtype=tf.float32)
y = tf.add(tf.multiply(x, a,), b, name='y')
variables = tf.trainable_variables()
for v in variables:
print(v.name)
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
output_graph = tf.graph_util.convert_variables_to_constants(sess=sess, input_graph_def=sess.graph_def, output_node_names=['y'])
tf.train.write_graph(output_graph, ".", "beginner.pb", False)
if __name__ == "__main__":
save()
1 工程化
在工程化之前,长达很长时间都是使用python迭代模型,从未考虑过模型训练好之后如何提供服务。通过c++使用tensorflow需要tf的头文件和相应的库文件。但是通过bazel编译之后产生了很多头文件,并且原有的头文件并没有整理在一起,所以整理头文件是一个很费时费力的活。为什么tf不能像caffe一样把头文件都集中在include里边?
1.1 找不到头文件
众里寻他千百度,蓦然回首c++的头文件全部在目录python
site-packages/tensorflow/include
原来在pip install 之后自动有一份c++的头文件,开始征程吧!!
1.2 小试牛刀