import torch
x = torch.tensor([1.0, 2.0], requires_grad=True)
y = x ** 2
loss = y.mean() # 假设我们对y的平均值感兴趣
print(loss)
loss.backward() # 计算梯度
print(x.grad) # 在这个例子中,x.grad 存储了 损失函数 关于 x 的梯度
运行结果:
import torch
x = torch.tensor([1.0, 2.0], requires_grad=True)
y = x ** 2
loss = y.mean() # 假设我们对y的平均值感兴趣
print(loss)
loss.backward() # 计算梯度
print(x.grad) # 在这个例子中,x.grad 存储了 损失函数 关于 x 的梯度
运行结果: