训练过程中出现loss为nan的问题

问题描述

  • 这是一场由学习率引发的血案

在训练时,第一个batch打印出来的loss还很正常,但是后面逐渐增大的不可控制,直接显示为nan值,之前设计对比学习损失函数的时候也出现过类似的情况,当时的问题出在抽取的特征向量没有归一化,导致两向量的乘积过大。但是这次我真的无解了。。
就在我回头检查训练参数的时候,我发现优化器中的学习率调用的是超参中的args.num_classes=5,也就是说,我把学习率默认设置成了5🥴

综上,学习率过大也可能会导致loss出现无穷大的情况。
完结撒花🎇🎇🎇

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值