softmax做激活函数,crossentropy做损失函数时softmax的求导问题

首先crossentropy的定义为

softmax的直观定义(摘于李宏毅教授主页http://speech.ee.ntu.edu.tw/~tlkagk/courses.html

softmax它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类!以手写数字图像识别为例。softmax输出的是一个十维的vector,比如待识别的数字是2,则我们希望的是在索引为2处的值最大,此时y可能是\begin{bmatrix} 0.02\\ 0.05\\ 0.8\\ 0.01\\ 0.01\\ 0.03\\ 0.01\\ 0.02\\ 0.05\\ \end{bmatrix}而y_hat为

\begin{bmatrix} 0\\ 0\\ 1\\ 0\\ 0\\ 0\\ 0\\ 0\\ 0\\ \end{bmatrix}虽然Loss是求和的形式,但由于y_hat中只有一个数字为1,其他都为0,所以Loss其实是等于 -Iny_{r} (r是y_hat中1的索引)

在Backpropagation中我们需要求\LARGE ^{\frac{\partial C}{\partial z^L}},其中\LARGE z^L[ Z^L_{1},Z^L_{2}... Z^L_{10} ],分别对10个变量求偏导即可,对Z^L_{i}求偏导需要分i=r与i≠r两种情况 \LARGE \fn_cm \LARGE ^{\frac{\partial C}{\partial z^L_{i}}} = ^{\frac{\partial C}{\partial y_{r}}}*^{\frac{\partial y_{r}}{\partial z^L_{i}}}  

1)当i=r时( 注:此时yr的分子分母都含有Z^L_{i}项,且此时y_hat为1)

2)i≠r时 ( 注:此时yr的只有分母都含有Z^L_{i}项)

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值