loss function with value of NAN

根据网上的资料,可能的情况就是1. 梯度太大。2. 计算过程中可能出现了除零的出错。

试过改变梯度无效后,确定问题出在其中一个自定义的loss函数,必须把这个函数的每一步计算是否导致零考察。

 

关于pytorch自动求导的基本介绍如下:

https://www.cnblogs.com/hellcat/p/6851761.html

 

设计如下测试,

a = torch.ones(2, 2, requires_grad=True)
b = torch.ones(2, 2, requires_grad=True)

a = a + 0.001
#b = b + 0.002

x = (a - b).pow_(2).sum(1).sqrt_() # 该函数中的a如果等于b,会导致反向之后a和b的梯度为nan。


out = (x*x).mean()


out = out.backward()

print(a.grad)  # 查看输入张量的梯度

 

可以得出是pow和sum,sqrt中的一个函数出错,不细究了。仅此记录

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值