[深度学习] 反向传播推导

本文详细探讨了深度学习中反向传播的原理,重点在于如何进行链式求导法则的应用。首先介绍了基本的求导概念,并强调在实际编程中缓存中间变量值的重要性。接着,文章详细讲解了Softmax损失函数对输入的求导方法,特别是在矩阵求导时的维度分析技巧。
摘要由CSDN通过智能技术生成

反向传播推导

反向传播是一种利用链式求导法则求梯度的方法,理解这个过程对于学习深度学习是十分重要的。之前一直只是理解基本的概念,下面详细说明具体的理论并具体推导。

基本求导

f(x,y)=xyfx=yfy=x f ( x , y ) = x y ∂ f ∂ x = y ∂ f ∂ y = x

f(x,y)=max(x,y)fx=1(xy)fy=1(yx)fx=0(xy)fy=0(yx) f ( x , y ) = m a x ( x , y ) ∂ f ∂ x = 1 ( x ≥ y ) ∂ f ∂ y = 1 ( y ≥ x ) ∂ f ∂ x = 0 ( x ≤ y ) ∂ f ∂ y = 0 ( y ≤ x )


x=2y=5z=4q=x+y=3f=qz=12 x = − 2 y = 5 z = − 4 q = x + y = 3 f = q ∗ z = − 12

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值