【深度学习笔记】3 自动微分 autograd

本文介绍了自动微分的概念,特别是Pytorch中的autograd机制。通过解析Backpropagation算法,解释了如何利用梯度下降法进行参数更新。在Pytorch中,我们使用autograd进行反向传播,需要注意计算图的建立和清理,以及如何处理叶子节点和非叶子节点的梯度。此外,文章还讨论了如何在不需要记录梯度或者修改tensor值但不影响反向传播的情况下进行操作。
摘要由CSDN通过智能技术生成

Backpropagation算法

参考 李宏毅深度学习2020
在这里插入图片描述我们采用 gradient descent 方法,需要 loss 对 各个参数 w i , b i w_i,b_i wi,bi 的偏导数,需要用到求导链式法则
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这里注意的是 δ a / δ z = σ ′ ( z ) \delta a/\delta z = \sigma' (z) δa/δz=σ(z) 是个常数,并且在 forward pass 中计算过
在这里插入图片描述

  • C n = l o s s ( y n , y ^ n ) C^n = loss(y^n,\hat{y}^n) Cn=loss(yn,y^n) 这里最后一个 δ C / δ z = δ C / δ y = l o s s ′ ( y , y ^ ) \delta C / \delta z = \delta C / \delta y =loss'(y,\hat{y}) δC/δz=δC/δy=loss(y,y^)
  • 前向运算时计算 δ z / δ w , z , σ ′ ( z ) \delta z / \delta w ,z,\sigma'(z) δz/δw,z,σ(z),反向计算时计算 δ C / δ Z \delta C / \delta Z δC/δ
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值