Pytorch(6)-自动微分 TORCH.AUTOGRAD

自动微分 TORCH.AUTOGRAD


在训练神经网络时,最常用的算法是 反向传播。在该算法中,根据损失函数相对于给定参数的梯度来调整参数(模型权重)。

为了计算这些梯度,PyTorch具有一个称为的内置微分引擎torch.autograd。它支持任何计算图的梯度自动计算。

考虑最简单的单层神经网络,它具有input x,parametersw和b,并且具有一些损失函数。可以通过以下方式在PyTorch中进行定义:

import torch

x = torch.ones(5)  # input tensor
y = torch.zeros(3)  # expected output
w = torch.randn(5, 3, requires_grad=True)
b = torch.randn(3, requires_grad=True)
z = torch.matmul(x, w)+b
loss = torch.nn.functional.binary_cross_entropy_with_logits(z, y)

张量,函数和计算图

这段代码定义了以下计算图:
在这里插入图片描述
在这个网络中,w和b为参数,这是我们需要优化。因此,我们需要能够针对这些变量计算损失函数的梯度。为此,我们设置requires_grad这些张量的属性。

在创建张量时设置requires_grad的值,也可以稍后使用x.requires_grad_(True)方法设置。

我们应用于张量以构造计算图的函数实际上是class的对象Function。该对象知道如何在正向方向上计算该函

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值