# 1. 由之前的各种运算得到此批数据的loss
loss = .....
# 2.使用tf.scalar_summary来收集想要显示的变量,命名为loss
tf.scalar_summary('loss',loss)
# 3.定义一个summury op, 用来汇总由scalar_summary记录的所有变量
merged_summary_op = tf.merge_all_summaries()
# 4.生成一个summary writer对象,需要指定写入路径,例如我这边就是/tmp/logdir
summary_writer = tf.train.SummaryWriter('/tmp/logdir', sess.graph)
# 开始训练,分批喂数据
for(i in range(batch_num)):
# 5.使用sess.run来得到merged_summary_op的返回值
summary_str = sess.run(merged_summary_op)
# 6.使用summary writer将运行中的loss值写入
summary_writer.add_summary(summary_str,i)
loss = .....
# 2.使用tf.scalar_summary来收集想要显示的变量,命名为loss
tf.scalar_summary('loss',loss)
# 3.定义一个summury op, 用来汇总由scalar_summary记录的所有变量
merged_summary_op = tf.merge_all_summaries()
# 4.生成一个summary writer对象,需要指定写入路径,例如我这边就是/tmp/logdir
summary_writer = tf.train.SummaryWriter('/tmp/logdir', sess.graph)
# 开始训练,分批喂数据
for(i in range(batch_num)):
# 5.使用sess.run来得到merged_summary_op的返回值
summary_str = sess.run(merged_summary_op)
# 6.使用summary writer将运行中的loss值写入
summary_writer.add_summary(summary_str,i)