Pytorch中使用backward()求导详解_comli_cn的博客-CSDN博客_backward pytorch
主要参考此篇文献,在个人理解的基础上做一些补充,希望能够帮助大家理解,如果有错误欢迎大家指出,谢谢。
1.out.backwark()中out是一个标量
import torch
from torch.autograd import Variable
#生成一个内容为[2,3]的张量,Varibale 默认是不要求梯度的,如果要求梯度,
#需要加上requires_grad=True来说明
#这里的Variable是为了设置变量,把a0=2,a1=3设置为两个变量
a = Variable(torch.tensor([2,3]),requires_grad=True)
b = a+3
c = b*3
out=c.mean() #求均值
out.backward()
print("a