pytorch中loss为nan值

遇到的情况:在本地pytorch1.3.1运行无误。但是在服务器上,环境是pytorch1.2.0 则出现:loss变为NAN值,

尝试过的方法:

1)改变batchsize无作用。 2)调小学习率没作用。 3)数据做了归一化也没有作用 4)冻结了一些卷积层,也毫无作用

但是加了一句话:

    preds = preds.log_softmax(2).detach().requires_grad_()

这个问题就解决了!! 验证了一下是后半句detach().requires_grad()的核心问题。看有解释说切断了反向传播。但具体理念我不太懂。我用的ctcloss,不知道和函数有没有关系。 

--------更新于2020.1.7--------------

后来发现加上detach()后,loss虽然不是nan,但是并没有下降的趋势。于是把detach去掉了。

排查各种原因后发现是因为在服务器上用了CUDA加速,CTCLoss的四个输入都必须在cuda上,如果报错则将数据类型变为torch.long就可以了。

text = text.to(torch.long).cuda()
length = length.to(torch.long).cuda()
preds = net(image)
preds = preds.log_softmax(2)
preds_size = torch.LongTensor([preds.size(0)] * batch_size).cuda()
cost = criterion(preds, text, preds_size, length) / batch_size

 

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值