pytorch(三)--autograd

一,autograd

在这里插入图片描述PS. 由于在pytorch中每次backward以后计算图会自动清楚,所以可通过把retain_graph设置为True,以保存计算图,以便于多次进行Backward

在这里插入图片描述举个关于creat_graph的例子:

flag = True

if flag:

    x = torch.tensor([3.],requires_grad=True)
    y = torch.pow(x,2)

    grad_1 = torch.autograd.grad(y,x,create_graph=True)     #创建导数的计算图来求高阶导数
    print(grad_1)

    grad_2 = torch.autograd.grad(grad_1[0],x)   #二阶导
    print(grad_2)

结果:在这里插入图片描述

autograd注意点:
1,梯度不自动清零
2,依赖于叶子结点的结点,requires_grad默认为True
3,叶子结点不可执行in-place

简单介绍下什么是in-place操作:
in-place操作就是在原内存中改变数据,举两个例子:

flag = True

if flag:
    a = torch.ones((1,))
    print(id(a),a)

    a = a + torch.ones((1,))
    print(id(a),a)

这个的输出结果为:在这里插入图片描述
我们发现,两个的地址不一样了,所以上面代码块的操作就不是in-place操作。
然而

flag = True

if flag:
    a = torch.ones((1,))
    print(id(a),a)

    a += torch.ones((1,))
    print(id(a),a)


得出来的结果:
在这里插入图片描述
我们发现内存地址没有变化,所以这个操作可以成为in-place操作。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值