python中backward函数_python中backward是什么意思_浅谈Pytorch中的自动求导函数backward()所需参数的含义......

本文详细探讨了PyTorch中自动求导函数`backward()`的使用,包括标量、向量和矩阵自动求导的情况。通过实例解析了`backward()`参数的意义,即对输出向量的每个元素求导时的权重,并展示了如何计算雅克比矩阵。
摘要由CSDN通过智能技术生成

正常来说backward( )函数是要传入参数的,一直没弄明白backward需要传入的参数具体含义,但是没关系,生命在与折腾,咱们来折腾一下,嘿嘿。

对标量自动求导

首先,如果out.backward()中的out是一个标量的话(相当于一个神经网络有一个样本,这个样本有两个属性,神经网络有一个输出)那么此时我的backward函数是不需要输入任何参数的。

import torch

from torch.autograd import Variable

a = Variable(torch.Tensor([2,3]),requires_grad=True)

b = a + 3

c = b * 3

out = c.mean()

out.backward()

print('input:')

print(a.data)

print('output:')

print(out.data.item())

print('input gradients are:')

print(a.grad)

运行结果:

thread-14786927-1-1.html

不难看出,我们构建了这样的一个函数:

thread-14786927-1-1.html

所以其求导也很容易看出:

thread-14786927-1-1.html

这是对其进行标量自动求导的结果.

对向量自动求导

如果out.backward()中的out是一个向量(或者理解成1xN的矩阵)的话,我们对向量进行自动求导,看看会发生什么?

先构建这样的一个模型(相当于一个神经网络有一个样本,这个样本有两个属性,神经网络有两个输出):

import torch

from torch.autograd import Variable

a = Variable(torch.Tensor([[2.,4.]]),requires_grad=True)

b = torch.zeros(1,2)

b[0,0]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值