计算图
计算图是Tensorflow值最基本的一个概念,Tensorflow中所有计算都会转化为计算图上的节点。Tensorflow会自动生成一个默认的计算图。
不同计算图上的张量和运算都不会共享,在以下代码中示意了如何在不同计算图上定义和使用变量
import tensorflow as tf
g1=tf.Graph()
with g1.as_default():
b=tf.get_variable("b",shape=[1]) //定义变量
g2=tf.Graph()
with g2.as_default():
b = tf.get_variable("b", shape=[1,2])//定义
//图中变量的使用
with tf.Session(graph=g1) as sess:
tf.global_variables_initializer().run()//initializer是初始化的意思
with tf.variable_scope("",reuse=True)://scope是范围的意思
print(sess.run(tf.get_variable("b")))
with tf.Session(graph=g2) as sess:
tf.global_variables_initializer().run()
with tf.variable_scope("", reuse=True):
print(sess.run(tf.get_variable("b")))
计算图不仅可以隔离张量和计算,还可以通过tf.Graph.device函数来指定运行计算的设备。
g=tf.Graph()
with g.device('/gpu:0'):
result = 1+2
print(result)
会话
以前看到下面这个表达方式不明白,今天了解了。
sess = tf.Session()
sess.run(...)
#使用这种模式,在所有计算完成之后,需要明确调用Session.close来关闭对话并释放资源
#但是意外关闭时,会导致close不被执行而资源泄露
sess.close()
#使用Python的上下文管理器来管理这个会话就可以解决这问题了
with tf.Session() as sess:
sess.run()
也算是学习到了关于Python的知识。python的上下文管理器会在退出时自动释放所有资源