学习记录002-Autograd--自动求导系统难点理解

Autograd–自动求导系统几个例子

(1)torch.autograd.backward( )

在这里插入图片描述

例1-用pytorch实现下面例子

autograd示意图

对于上面的式子,y=(x+w)*(w+1)=xw+w^2+x+w
如果是对w求导,y'=x+2w+1
如果是对x求导,y'=w+1

下面是代码的实现过程:

import torch

#----------------------(1)和写数学题一样,先定义w,x-----------------------
w = torch.tensor([1.], requires_grad=True)
x = torch.tensor([2.], requires_grad=True)

#---------------------(2)用torch.add(),torch.mul()函数实现加法和乘法------
a = torch.add(w, x)
b = torch.add(w, 1)
y = torch.mul(a, b)


#---------------------(3)用backward()函数实现反向传播-----------------
# y.backward(retain_graph=True)  #如果先执行两次反向传播,写两句y.backward()会报错,根据报错,可以将y.backward()里面的retain_graph=True,即一句y.backward(retain_graph=True) ,一句y.backward()
y.backward() #可以设置断点,点击pycharm运行右边的绿色小虫子执行debug,可以发现是torch.autograd.backward( )函数起作用

#---------------------(4)分别计算以w,x为自变量的y的导数---------------
print("w的导数:{}".format(w.grad)) #就是以w为自变量,对y求导,然后把已知的值代入所求的导数中
print("x的导数:{}".format(x.grad)) #同上,结果是对的

结果

w的导数:tensor([5.])
x的导数:tensor([2.])
例2-用pytorch实现多梯度权重
import torch
w = torch.tensor([1.],requires_grad=True)
x = torch.tensor([2.],requires_grad=True)

a = torch.add(w,x) #a=w+x
b = torch.add(w,1) #b=w+1

y0 = torch.mul(a,b) #y0=(w+x)*(w+1)
y1 = torch.add(a,b) #y1=(w+x)+(w+1)

#--------------------(1)这里就是和例1的不同点-------------------------
y = torch.cat([y0,y1],dim=0)#这里的y和例1不同的就是是两个式子的合并,这里不加dim=0好像也没错,因为y只有一个维度
grad_tensors = torch.tensor([1.,2.]) #这里的grad_tensors:多梯度权重,也就是y0'*1+y1'*2

y.backward(gradient=grad_tensors)

print(w.grad)

结果

tensor([9.])
(2)torch.autograd.gard( )

在这里插入图片描述

例3-用torch.autograd.gard( )实现求二阶导
import torch

x = torch.tensor([3.], requires_grad=True)
y = torch.pow(x, 2)     # y = x**2

#---------------------------(1)-------------------------------------
grad_1 = torch.autograd.grad(y, x, create_graph=True)   # grad_1 = dy/dx = 2x = 2 * 3 = 6 ,create_graph=True是创建导数的计算图,为下面的grad_2做准备,只有对导数创建计算图才能对导数进行再次求导。第一个参数的式子,第2个参数是求导的自变量
print(grad_1)

#-------------------------- (2) --------------------------------------
grad_2 = torch.autograd.grad(grad_1[0], x)              # grad_2 = d(dy/dx)/dx = d(2x)/dx = 2,这里写得比较严谨,参数只写grad_1也是可以的
print(grad_2)

结果

(tensor([6.], grad_fn=<MulBackward0>),)
(tensor([2.]),)
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值