10 应对loss为nan的问题

应对loss为nan的问题

把学习率再调小一点

configs/experiment/vocals_dis.yaml

  1. 降低学习率

    把lr从0.000025改成 0.000005

  2. 梯度裁剪

    原本是

    trainer:
      devices: 4 # int or list
      sync_batchnorm: True
      track_grad_norm: 2
    #  resume_from_checkpoint: /home/wujunyu/DTTNet-Pytorch/check_points/vocals_vocals_g32_10/checkpoints/last.ckpt
    #  gradient_clip_val: 5
    

    然后可以把gradient_clip_val: 5的注释去掉

  3. 修改模型

    如果学习率改的很小还是nan,那么,模型里面可能梯度太大了,得调整一下模型的结构了(学习率太小学的很慢的)

PS:因为最后不打算做这个方向了,所以也没进一步修改模型。(肯定是得进一步修改模型的,激活函数,标准化函数,还有模型结构等等)

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值