FlyAI小课堂:Tensorflow-可视化(TensorBoard)

21 篇文章 0 订阅
18 篇文章 0 订阅

人工智能学习离不开实践的验证,推荐大家可以多在FlyAI-AI竞赛服务平台多参加训练和竞赛,以此来提升自己的能力。FlyAI是为AI开发者提供数据竞赛并支持GPU离线训练的一站式服务平台。每周免费提供项目开源算法样例,支持算法能力变现以及快速的迭代算法模型。

目录

  1. TensorBoard简介
  2. TensorBoard主要API
  3. 面板介绍
  4. 执行步骤
  5. 实例说明

在TensorFlow中,最常用的可视化方法有三种途径,分别为TensorFlow与OpenCv的混合编程、利用Matpltlib进行可视化、利用TensorFlow自带的可视化工具TensorBoard进行可视化。这三种方法中,TensorFlow中最重要的可视化方法是通过tensorBoard、tf.summary和tf.summary.FileWriter这三个模块相互合作来完成的。而且需要结合【TF-2-2】Tensorflow-变量作用域,这一篇文章整合使用。

一、TensorBoard简介

TensorBoard是TensorFlow官方推出的可视化工具,它可以将模型训练过程中的各种汇总数据展示出来,包括标量(Scalar)、图片(Images)、音频(Audio)、计算图(Graphs)、数据分布(Distributions)、直方图(Histograms)和嵌入向量(Embeddings)。在训练大型深度学习神经网络时,中间计算过程非常复杂,为了理解调试和优化我们设计的网络,我们可以使用TensorBoard观察训练过程中各种可视化数据。如果要使用TensorBoard展示数据,我们需要在执行TensorFlow计算图的过程中,将各种类型的数据汇总并记录到日志文件中。然后使用TensorBoard读取这些日志文件,解析数据并生成可视化的Web界面,让我们可以在浏览器中观察各种汇总的数据。

TensorBoard安装:在通过pip安装TensorFlow的情况下,默认也会安装TensorBoard。通过TensorBoard可以展示TensorFlow的图像、绘制图像生成的定量指标以及附加数据等信息

二、TensorBoard主要API

TensorBoard通过读取TensorFlow的事件文件来运行,TensorFlow的事件文件包括了在TensorFlow运行中涉及到的主要数据,比如:scalar、image、audio、histogram和graph等。通过tf.summary相关API,将数据添加summary中,然后在Session中执行这些操作得到一个序列化Summary protobuf对象,然后使用FileWriter对象将汇总的序列数据写入到磁盘,然后使用tensorboard命令进行图标展示,默认访问端口是:6006

API

描述

tf.summary.scalar

添加一个标量

tf.summary.audio

添加一个音频变量

tf.summary.image

添加一个图片变量

tf.summary.histogram

添加一个直方图变量

tf.summary.text

添加一个字符串类型的变量(一般很少用)

 

三、面板介绍

3.1 SCALARS面板

SCALARS 面板,统计tensorflow中的标量(如:学习率、模型的总损失)随着迭代轮数的变化情况。SCALARS 面板的左边是一些选项,包括Split on undercores(用下划线分开显示)、Data downloadlinks(数据下载链接)、Smoothing(图像的曲线平滑程度)以及Horizontal Axis(水平轴)的表示,其中水平轴的表示分3 种(STEP 代表迭代次数,RELATIVE 代表按照训练集和测试集的相对值,WALL 代表按照时间)。图中右边给出了准确率变化曲线。

如下图二所示,SCALARS栏目显示通过函数tf.summary.scalar()记录的数据的变化趋势。如下所示代码可添加到程序中,用于记录学习率的变化情况。

tf.summary.scalar('accuracy', accuracy)

 

3.2 GRAPHS

GRAPHS 面板是对理解神经网络结构最有帮助的一个面板,它直观地展示了数据流图。下图所示界面中节点之间的连线即为数据流,连线越粗,说明在两个节点之间流动的张量(tensor)越多。

在GRAPHS 面板的左侧,可以选择迭代步骤。可以用不同Color(颜色)来表示不同的Structure(整个数据流图的结构),或者用不同Color 来表示不同Device(设备)。例如,当使用多个GPU 时,各个节点分别使用的GPU 不同。当我们选择特定的某次迭代时,可以显示出各个节点的Compute time(计算时间)以及Memory(内存消耗)。

 

四、执行步骤

4.1 运行编写好的程序,"logs"文件夹下得到保存文件

4.2 打开cmd(必须给定对应的数据聚合文件路径信息(tensorboard --logdir path/to/logs)),进入logs文件夹同级目录

4.3 运行 tensorboard --logdir=logs (注意不要用"logs")

4.4 打开Google Chrome(其他浏览器不保证),输入:http://localhost:6006.

五、实例说明

本实例采用tf.summary.scalar API进行说明:

  1. 代码:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

1   import tensorflow as tf

2   with tf.variable_scope("foo"):

3       with tf.device("/cpu:0"):

4           x_init1 = tf.get_variable('init_x', [10], tf.float32, initializer=tf.random_normal_initializer())[0]

5           = tf.Variable(initial_value=x_init1, name='x')

6           = tf.placeholder(dtype=tf.float32, name='y')

7           = + y

8       # update x

9       assign_op = tf.assign(x, x + 1)

10       with tf.control_dependencies([assign_op]):

11           with tf.device('/gpu:0'):

12               out = * y

13   with tf.device('/gpu:0'):

14       with tf.variable_scope("bar"):

15           = tf.constant(3.0+ 4.0

16       = * a

17   # 开始记录信息(需要展示的信息的输出)

18   tf.summary.scalar('scalar_init_x', x_init1)

19   tf.summary.scalar(name='scalar_x', tensor=x)

20   tf.summary.scalar('scalar_y', y)

21   tf.summary.scalar('scalar_z', z)

22   tf.summary.scalar('scala_w', w)

23   tf.summary.scalar('scala_out', out)

24   with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:

25       # merge all summary

26       merged_summary = tf.summary.merge_all()

27       writer = tf.summary.FileWriter('./result', sess.graph)  # 得到输出到文件的对象

28       sess.run(tf.global_variables_initializer())  # 初始化

29       # print

30       for in range(15):

31           summary, r_out, r_x, r_w = sess.run([merged_summary, out, x, w], feed_dict={y: i})

32           writer.add_summary(summary, i)

33           print("{},{},{}".format(r_out, r_x, r_w))

34       writer.close()    # 关闭操作

 

1)ensorBoard显示的时候,必须给定对应的数据聚合文件路径信息(tensorboard --logdir path/to/logs)。再浏览器输入:http://localhost:6006.

2)进入对应环境,cmd输入:

tensorboard --logdir C:\Users\wangyifan\PycharmProjects\benfengwangML202003\DeepLearning01

3)浏览器:http://localhost:6006

运行结果:方便查看和趋势和网络。

 

————————————————

更多精彩内容请访问FlyAI-AI竞赛服务平台;为AI开发者提供数据竞赛并支持GPU离线训练的一站式服务平台;每周免费提供项目开源算法样例,支持算法能力变现以及快速的迭代算法模型。

挑战者,都在FlyAI!!!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值