Tensorflow2.0学习笔记(二)tensorboard的使用

目录

1 代码

2 命令行输入:tensorboard --logdir="logs",WEb查看。

3 查看结果

 

1 代码

import tensorflow as tf
import numpy as np
import os


def load_mnist(path):
    """加载本地下载好的mnist数据集"""
    f = np.load(path)
    x_train, y_train = f['x_train'], f['y_train']
    x_test, y_test = f['x_test'], f['y_test']
    f.close()
    return (x_train, y_train), (x_test, y_test)


(x_train, y_train), (x_test, y_test) = load_mnist("mnist.npz")
x_train, x_test = x_train / 255.0, x_test / 255.0  # 将样本从整数转换为浮点数

# 利用tf.keras.Sequential容器封装网络层,前一层网络的输出默认作为下一层的输入
model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(input_shape=(28, 28)),
  tf.keras.layers.Dense(128, activation='relu'),  # 创建一层网络,设置输出节点数为128,激活函数类型为Relu
  tf.keras.layers.Dropout(0.2),  # 在训练中每次更新时, 将输入单元的按比率随机设置为 0, 这有助于防止过拟合
  tf.keras.layers.Dense(10, activation='softmax')])  # Dense层就是所谓的全连接神经网络层

model.summary()

# 为训练选择优化器和损失函数:
model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

log_dir = os.path.join("logs")
# print(log_dir)
if not os.path.exists(log_dir):
    os.mkdir(log_dir)
# 定义TensorBoard对象.histogram_freq 如果设置为0,则不会计算直方图。
tensorboard_callback = tf.keras.callbacks.TensorBoard(log_dir=log_dir, histogram_freq=1)  

# TensorBoard对象作为回调传给model.fit方法
model.fit(x_train, y_train, epochs=8, validation_data=(x_test, y_test), callbacks=[tensorboard_callback])  

model.save_weights('weight/my_weights', save_format='tf')  # 保存模型

命令行输入:tensorboard --logdir="logs",WEb查看。

3 查看结果

4 注意

log_dir = os.path.join("logs")

os为windows,则使用上述写法。如果写成log_dir=“logs”,则报错。

 

 

显示模型的结构:model.summary()

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Jackilina_Stone

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值