梯度的计算

本文详细介绍了如何使用PyTorch的autograd模块计算函数的梯度,通过实例展示了如何对标量和张量进行求导,并解释了`grad_outputs`参数的作用。
摘要由CSDN通过智能技术生成

文章目录

在这里插入图片描述

import torch as tc

# 以函数f(x) = x^2  为例子,求梯度
x1 = tc.tensor(1,dtype=tc.float64,requires_grad=True)
g1 = tc.autograd.grad(x1**2,x1)[0]
print(f"The grad of x**2 at {x1} is {g1}")

(x1 ** 2).backward()
print(f"The grad of x**2 at {x1} is {x1.grad} ")

x2 = tc.arange(3,dtype=tc.float64,requires_grad= True)
g2 = tc.autograd.grad(x2**2,x2,grad_outputs=tc.ones_like(x2) )[0]
print(f"The grad of x**2 at {x2.data} is {g2}")


  • 逐一分析代码

当然,让我们逐一分析每一部分代码:

  1. 导入 PyTorch 模块

    import torch as tc
    

    这一行导入了PyTorch库,并将其别名设置为tc以方便在代码中使用。

  2. 计算梯度例子1

    # 创建一个张量 x1,设置为1,数据类型为float64,并启用梯度追踪
    x1 = tc.tensor(1, dtype=tc.float64, requires_grad=True)
    
    # 使用autograd.grad计算 x1**2 对 x1 的梯度
    g1 = tc.autograd.grad(x1**2, x1)[0]
    print(f"The grad of x**2 at {x1} is {g1}")
    

    这一部分代码创建了一个标量张量x1,并启用了梯度追踪。然后使用autograd.grad计算了函数 x1**2 相对于 x1 的梯度,并将结果打印出来。

  3. 计算梯度例子2

    # 使用张量的backward方法计算 x1**2 对 x1 的梯度,并打印结果
    (x1 ** 2).backward()
    print(f"The grad of x**2 at {x1} is {x1.grad}")
    

    这一部分使用了PyTorch中张量的backward方法来计算 x1**2x1 的梯度,并将结果打印出来。这种方式也可以用于计算梯度。

  4. 计算梯度例子3

    # 创建一个张量 x2,从0开始,到2结束(不包括2),数据类型为float64,并启用梯度追踪
    x2 = tc.arange(3, dtype=tc.float64, requires_grad=True)
    
    # 使用autograd.grad计算 x2**2 对 x2 的梯度,同时设置grad_outputs为一个与x2相同形状的张量,值都为1
    g2 = tc.autograd.grad(x2**2, x2, grad_outputs=tc.ones_like(x2))[0]
    print(f"The grad of x**2 at {x2.data} is {g2}")
    

    这一部分创建了一个张量x2,该张量包含值从0到2(不包括2)的浮点数,启用了梯度追踪。然后使用autograd.grad计算了函数 x2**2 相对于 x2 的梯度,并设置了grad_outputs参数,最后将结果打印出来。

通过这些注释,你应该能更清楚地理解每一部分代码的作用。

  • 10
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值