遇到一个很坑的情况,在pytorch训练过程中出现loss=nan的情况 有以下几种可能: 1.学习率太高。 2.loss函数有问题 3.对于回归问题,可能出现了除0 的计算,加一个很小的余项可能可以解决 4.数据本身,是否存在Nan、inf,可以用np.isnan(),np.isinf()检查一下input和target 5.target本身应该是能够被loss函数计算的,比如sigmoid激活函数的target应该大于0,同样的需要检查数据集