自动求导——记录一下大佬的链接

import torch

print(torch.__version__)
2.0.0

原理

tensor的.requires_grad设置为True时,它将开始追踪(track)在其上的所有操作。完成计算后,可以调用.backward()来完成所有梯度计算。此Tensor的梯度将累积到.grad属性中。

x = torch.ones(2, 2, requires_grad=True)
print(x)
print(x.grad)
print(x.grad_fn)
tensor([[1., 1.],
        [1., 1.]], requires_grad=True)
None
None

Function是另外一个很重要的类。TensorFunction互相结合就可以构建一个记录有整个计算过程的非循环图。每个Tensor都有一个.grad_fn属性,该属性即创建该TensorFunction(除非用户创建的Tensors时设置了grad_fn=None)。

y = x + 2
print(y)
# print(y.grad)
print(y.grad_fn)
tensor([[3., 3.],
        [3., 3.]], grad_fn=<AddBackward0>)
<AddBackward0 object at 0x000002801B311430>
# y.backward()
# RuntimeError: grad can be implicitly created only for scalar outputs

y.backward(torch.tensor([[1,1],[2,2]])) # 对非标量求导,需要加一个矩阵表示起点
print(x.grad)
x.grad.data.zero_()
tensor([[1., 1.],
        [2., 2.]])





tensor([[0., 0.],
        [0., 0.]])
z=x.sum()

z.backward()
print(x.grad)
x.grad.data.zero_()
print()
tensor([[1., 1.],
        [1., 1.]])

当被求导的函数不是标量时,直接求导pytorh是不支持的,此时传入一个与被求导函数匹配的张量

x1=torch.tensor([1.,2,3,4],requires_grad=True)
y1=torch.dot(x1,x1)
print(x1,y1)

# x1.grad.data.zero_()
y1.backward(torch.tensor(2))
print(x1.grad)
x1.grad.data.zero_()
print()

tensor([1., 2., 3., 4.], requires_grad=True) tensor(30., grad_fn=<DotBackward0>)
tensor([ 4.,  8., 12., 16.])

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

熊熊想读研究生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值