pytorch求导

pytorch求导

主要记录一下backward()函数以及torch.autograd.grad()函数的使用,并重点探究一下对应的creat_graph以及retain_graph参数的使用。
首先定义函数

import torch
from torch.autograd import Variable
def f(x):
    y = x ** 3
    return y

1. backward()

主要用于对loss的求导,并将求出的梯度存入叶子节点对应的buffer内
其中,retain_graph=True是保留整个计算图不被销毁,这样可以多次backward(),但是要注意梯度是多次累积的。

def main1():
    x = Variable(torch.tensor([5.0]), requires_grad=True)
    y = f(x)
    y.backward(retain_graph=True)
    print(x.grad) # 75
    y.backward(retain_graph=True)
    print(x.grad) # 75 + 75
    y.backward()
    print(x.grad) # 75 + 75 + 75

2. torch.autograd.grad()

  • 首先利用torch.autograd.grad()函数进行求导不会在叶子节点的buffer内保留梯度
  • 输出的结果为tuple类型,即为一阶导数的值
  • 当使用creat_graph=True时,可以计算高阶导数,此时grad_x.requires_grad自动为True
def main2():
    x = Variable(torch.tensor([5.0]), requires_grad=True)
    grad_x = torch.autograd.grad(f(x), x, create_graph=True)
    print(grad_x)  # 一阶导数 75  grad_x.requires_grad == True
    grad_grad_x = torch.autograd.grad(grad_x[0], x, create_graph=True)
    print(grad_grad_x) # 二阶导数 30  requires_grad == True
    grad_grad_grad_x = torch.autograd.grad(grad_grad_x[0], x)
    print(grad_grad_grad_x) # 三阶导数 6  requires_grad == False

  • 其中另一个参数retain_graph=True表示的是保留计算图的结果,这样在backward()的时候会进行累积,单独使用不可以求二阶导,这是因为requires_grad == False,下面两段代码会报错
def main3():
    x = Variable(torch.tensor([5.0]), requires_grad=True)
    grad_x = torch.autograd.grad(f(x), x, retain_graph=True)
    print(grad_x)
    grad_grad_x = torch.autograd.grad(grad_x[0], x, retain_graph=True)
    print(grad_grad_x)
    grad_grad_grad_x = torch.autograd.grad(grad_grad_x[0], x)
    print(grad_grad_grad_x)
    

RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn


def main4():
    x = Variable(torch.tensor([5.0]), requires_grad=True)
    grad_x = torch.autograd.grad(f(x), x, retain_graph=True)
    print(grad_x)
    grad_x[0].backward()
    print(x.grad)

RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn

3. 混合使用

def main5():
    x = Variable(torch.tensor([5.0]), requires_grad=True)
    grad_x = torch.autograd.grad(f(x), x, create_graph=True)
    print(grad_x)  # 一阶导数 75
    grad_x[0].backward()
    print(x.grad) # buffer内存的是30,也就是二阶导数的值
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值