这个bug出现的也是很诡异,之前服务器上跑的好好的没任何问题,换了服务器之后一直有这个报错。
报错行:
nn.utils.clip_grad_value_(params, 0.1) #### 梯度裁剪,防止梯度爆炸
将其修改为:
####2024/9/23 遍历模型参数,进行梯度裁剪 防止nested_tensorlist got false错误
for param in self.model.parameters():
if param.grad is not None and param.grad.nelement() > 0:
nn.utils.clip_grad_value_([param], clip_value=1.0)