import torch
x=torch.arange(4.0)
print(x)
x.requires_grad_(True)#存储梯度
print(x.grad)#默认值为None
y=2*torch.dot(x,x)#计算两个张量的点积
print(y)
y.backward()#调用反向传播函数来自动计算y关于x每个分量的梯度
#x.grad之前要加入backward
print(x.grad)
#默认情况下,Pytorch会积累梯度,我们需要清楚之前的值
x.grad.zero_()
y=x.sum()
y.backward()
print(x.grad)
【李沐上手pytorch】
最新推荐文章于 2024-07-23 17:25:05 发布