学习了张量的基本运算,和numpy差不多,记录一些函数:
in place的加法:. add_()
空tensor:. empty(5,2)
修改形状(共享内存):. view()
复制:. clone()
一个元素取值:. item()
自动求导():
requires_grad= True追踪历史,新建的tensor的梯度函数是None
标量函数求导:
out. backward
x.grad返回d out/ d x
再一次反向传播要先加总,再重复之前步骤
out2= x.sum()
out2. backward()
print(x.grad)
向量值函数求导:
v = torch. tensor()
y.backward(v)
print(x.grad)