训练loss NaN
有人遇到过训练时loss在某一轮变成NaN的情况吗,之前调整了batch和gpu号之后解决了,现在使用baseline+A训练没问题,baseline+B训练也没问题,baseline+A+B训练又loss NaN了,可能是什么原因呢
训练loss NaN
有人遇到过训练时loss在某一轮变成NaN的情况吗,之前调整了batch和gpu号之后解决了,现在使用baseline+A训练没问题,baseline+B训练也没问题,baseline+A+B训练又loss NaN了,可能是什么原因呢