pytorch分类任务训练几个batch后loss突变为Nan

loss在前几个batch处于正常下降状态,之后突变为Nan,没有增大爆炸的过程。

尝试减小学习率,无果。

考虑是网络本身有问题导致梯度爆炸。

网络分类分支head如下:

[nn.Conv3d(ngf, self.opt.n_class, kernel_size=1, padding=0), nn.AdaptiveMaxPool3d((1, None, None))]

考虑最后的时间维度的max pooling之后,没有加激活函数,导致该分支输出的数值容易爆炸,所以在之后加了一个tanh层:
[nn.Conv3d(ngf, self.opt.n_class, kernel_size=1, padding=0), nn.AdaptiveMaxPool3d((1, None, None)), nn.Tanh()]
之后再训练,loss正常下降。

 

该问题和输入没有归一化类似,导致数值大小爆炸。

 

在分类模型接近收敛时突然提示input里出现nan,然后loss也变成nan

该问题原因可能是分类的类别里某类的数量很少或者为0,导致接近收敛的模型对该类的softmax预测概率为0,然后同时在计算log时,没有+一个很小的值,导致log里出现了0从而产生nan。

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值