在训练中添加tensorboard查看损失变化

导包

导包过程中添加:

from torch.utils.tensorboard import SummaryWriter

损失

在损失计算的位置添加:

tags = ["d_loss_val", "g_loss_val", "l1_loss_val", "mask_loss_val", "vgg_loss_val"]
tb_writer.add_scalar(tags[0], d_loss_val, idx)
tb_writer.add_scalar(tags[1], g_loss_val, idx)
tb_writer.add_scalar(tags[2], l1_loss_val, idx)
tb_writer.add_scalar(tags[3], mask_loss_val, idx)
tb_writer.add_scalar(tags[4], vgg_loss_val, idx)

(举例)只是举例用法,要根据自己的loss进行对应修改 

main

main里添加:

print('Start Tensorboard with "tensorboard --logdir=runs", view at http://localhost:6006/')
tb_writer = SummaryWriter()

举例图片: 

查看

这样就可以从 http://localhost:6007/  查看tensorboard 或者命令行启动:

tensorboard --logdir=runs

+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+

另外也可以用后台启动的方法:

举例:

nohup python -u train_bac.py --batch 3 --ckpt pretrained/lizhen_full_python.pt ./My_train_input/FV_output/ > train03.log 2>&1 &

这种方法会保存为log日志,tail -f train03.log也可查看

====================================================================

(自己备忘学习)tqdm迭代器:

    pbar = range(args.iter)
    if get_rank() == 0:
        pbar = tqdm(pbar, initial=args.start_iter, dynamic_ncols=True, smoothing=0.01)
#iter是总论次:    parser.add_argument("--iter", type=int, default=800000, help="total training iterations")


# 打印损失:
pbar.set_description((f"d: {d_loss_val:.4f}; g: {g_loss_val:.4f}; l1: {l1_loss_val:.4f}; vgg: {vgg_loss_val:.4f}; mask: {mask_loss_val:.4f} "))

  • 9
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值