1 这是因为 在计算梯度前此变量被修改。
解决办法“
(1)把激活函数的 inplace= True 全部改为false
torch.relu(inplace =False)
(2) 赋值符 += => +
a+=b
# 修改为
a =a+ b
1 这是因为 在计算梯度前此变量被修改。
解决办法“
(1)把激活函数的 inplace= True 全部改为false
torch.relu(inplace =False)
(2) 赋值符 += => +
a+=b
# 修改为
a =a+ b