1、所有计算完成之后需要关闭会话来帮助系统回收资源。
2、TensorFlow中使用会话的两种模式:
(1)明确调用生成会话函数和关闭会话函数:
sess = tf.Session()
sess.run(...)
sess.close()
(2)通过python的上下文管理器来使用会话:
with tf.Session() as sess:
sess.run(...)
3、(1)TensorFlow不会自动生成默认的会话,需要手动指定。当默认的会话被指定之后可以通过tf.Tensor.eval函数来计算一个张量的值,例
sess = tf.Session()
with sess.as_default():
a = tf.Variable([10, 20])
tf.global_variables_initializer().run()
print(a.eval())
//注,若不指定“默认会话”,sess.run(result)和result.eval(sess)的作用相同
(2)在交互式环境下,直接构建默认的会话,可以使用tf.InteractiveSession,例
sess = tf.InteractiveSession()
a = tf.constant([1.0, 3.0], shape=(2, ))
print(a.eval())
sess.close()
4、通过ConfigProto配置会话
config = tf.ConfigProto(allow_soft_placement=True,
log_device_placement=True )
sess = tf.Session(config=config)
(或交互式环境下 sess = tf.InteractiveSession(config=config))
ConfigProto可以配置 a allow_soft_placement, b log_device_placement, c 类似并行的线程数,d GPU分配策略, e 运算超时时间等。其中,
(1)allow_soft_placement为bool型参数,默认为False, 取True时,在以下任意一个条件成立时,GPU上的运算可以放到CPU上进行:
① 运算无法在GPU上执行;
② 无GPU资源(如指定在第二个GPU上运行,但机器只有一个GPU);
③ 运算输入包含对CPU计算结果的引用。
(2)log_device_placement为bool型参数,当设为True时,日志中会记录每个节点被安排在哪个设备上以方便调试。