【无标题】

Loss出现NaN的情况

梯度值计算溢出

梯度裁剪

torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm)

输出/输入NaN情况

查看输入/输出是否含有NaN

torch.isnan(x).any()

值得注意的是,当模型参数包含nan时,输出会自然包含大量nan,这时可能不是模型中某个模块的计算问题。而是梯度回传的问题。

钩子注册

def check_grad_hook(grad):
    if torch.isnan(grad).any():
        print("NaN gradient found")

for layer in fr_module.modules():
    print(layer)
    layer.register_backward_hook(check_grad_hook)

梯度回传检查

    for name, param in fr_module.named_parameters():
        if param.grad is not None:  # 确保梯度存在
            if torch.isnan(param.grad).any():
                print(f"参数 {name} 的梯度包含NaN值")
            else:
                print(f"参数 {name} 的梯度正常")

梯度回传异常检测:

with torch.autograd.set_detect_anomaly(True):
	loss.backward()

此时会直接标记出回传中出现问题的代码行和Function,
如RuntimeError: Function ‘PowBackward0’ returned nan values in its 0th output.
即Pow幂运算出现错误。

踩坑记录:
rms_values = torch.sqrt(torch.mean(torch.abs(s_complex_batch)**2, dim=1, keepdim=True)) # 计算均方根

计算均方根时,torch.abs(s_complex_batch)**2也算幂运算,需要添加小epsilon常数

  • 6
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值