深度学习(26)随机梯度下降四: 损失函数的梯度


Outline

  • Mean Squared Error
  • Cross Entropy Loss

1. Mean Squared Error(MSE)

  • l o s s = ∑ [ y − f θ ( x ) ] 2 loss=∑[y-f_θ (x)]^2 loss=[yfθ(x)]2
  • ∇ l o s s ∇ θ = 2 ∑ [ y − f θ ( x ) ] ∗ ∇ f θ ( x ) ∇ θ \frac{∇loss}{∇θ}=2∑[y-f_θ (x)] *\frac{∇f_θ (x)}{∇θ} θloss=2[yfθ(x)]θfθ(x)
  • f θ ( x ) = s i g m o i d ( X W + b ) f_θ (x)=sigmoid(XW+b) fθ(x)=sigmoid(XW+b)
  • f θ ( x ) = r e l u ( X W + b ) f_θ (x)=relu(XW+b) fθ(x)=relu(XW+b)

MSE Gradient
在这里插入图片描述

注: 如果不写tape.watch([w, b])的话,就需要将w和b手动转换为Variable类型。

2. Cross Entropy Loss

在这里插入图片描述

CrossEntropy

  • H ( [ 0 , 1 , 0 ] , [ p 0 , p 1 , p 2 ] ) = D K L ( p │ q ) = − 1 log ⁡ ⁡ p 1 H([0,1,0],[p_0,p_1,p_2 ])=D_{KL} (p│q)=-1 \log⁡{p_1} H([0,1,0],[p0,p1,p2])=DKL(pq)=1logp1
  • d d x log ⁡ 2 ⁡ ( x ) = 1 x ⋅ l n ⁡ ( 2 ) \frac{d}{dx} \log_2⁡{(x)}=\frac{1}{x⋅ln⁡(2)} dxdlog2(x)=xln(2)1
  • p = s o f t m a x ( l o g i t s ) p=softmax(logits) p=softmax(logits)

3. Softmax

  • soft version of max
    在这里插入图片描述

(1) Derivative

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

(2) Crossentropy gradient

在这里插入图片描述

参考文献:
[1] 龙良曲:《深度学习与TensorFlow2入门实战》

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值