Tensorflow画loss和val_loss 、accuracy和 val_accuracy的图(便于分析)

首先,我们要知道哪儿里会产生这四个值?

history = model_final.fit(
    train_generator,
    epochs=epochs,
    validation_data=validation_generator,
    validation_steps = int(nb_validation_samples / batch_size),
    callbacks=[checkpoint,early])

当model.compile的metrics=[“accuracy”]时,history.history里包含的就是这四个值的内容

接下来,我们开始写画图代码(可直接复制代码)

import matplotlib.pyplot as plt

accuracy = history.history['accuracy']
val_accuracy = history.history['val_accuracy']
epochs = range(1, len(accuracy) + 1)

plt.plot(epochs, accuracy, 'bo', label = 'Training accuracy')
plt.plot(epochs, val_accuracy, 'b', label = 'Validation accuracy')
plt.title('Training And Validation val_accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.legend()
plt.show()# 以上为画出val_accuracy和accuracy的图

#以下为val_loss和loss的图
loss = history.history['loss']
val_loss = history.history['val_loss']
epochs = range(1, len(loss) + 1)

plt.plot(epochs, loss, 'bo', label = 'Training loss')
plt.plot(epochs, val_loss, 'b',label = 'Validation loss')
plt.title('Training And Validation val_accuracy')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()
plt.show()

在这里插入图片描述
在这里插入图片描述

  • 9
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
lossval_loss是在训练神经网络模型时用来评估模型性能的指标。loss表示在训练集上的损失值,而val_loss表示在验证集上的损失值。损失值越小,表示模型的预测结果与真实值之间的差距越小,即模型的性能越好。通常情况下,我们希望训练过程lossval_loss都能随着训练的进行逐渐减小,这表示模型在学习和泛化能力上都有不错的表现。然而,如果在训练过程loss下降而val_loss上升,可能意味着模型开始过拟合,即在训练集上表现良好但在验证集上表现较差。此时,我们可以考虑停止训练,进行数据增强或正则化等操作来防止过拟合的发生。如果lossval_loss都不再下降,可能表示模型已经达到了学习的瓶颈,此时可以尝试调整学习率或批量数目来进一步优化模型。如果loss不变而val_loss下降,可能意味着数据集存在问题。如果lossval_loss都上升,可能表示模型结构设计不当,训练超参数设置不当,或者数据集经过清洗。通过观察lossval_loss的变化趋势,我们可以对模型的训练过程进行评估和调整。 #### 引用[.reference_title] - *1* [关于神经网络的模型训练时lossval_loss变化的问题(笔记整理)](https://blog.csdn.net/m0_60166035/article/details/123426783)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Tensorflowlossval_lossaccuracyval_accuracy(便于分析)](https://blog.csdn.net/weixin_45532899/article/details/124329669)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值