softmax代价函数的导数计算

对于softmax的理解请参考Ufldl教程,本文仅对代价函数求导部分进行推导


softmax regression 代价函数:

J(θ)=1mi=1mj=1k1{y(i)=j}logeθTjx(i)kl=1eθTjx(i)

导数计算:
首先利用 logab=log(a)log(b) 将log函数内部展开:
1{yi=j}logeθTjxikl=1eθTlxi=1{yi=j}[log(eθTjxi)log(l=1keθTlxi)]

接着对 θj 求导得:
1{yi=j}[xieθTjxikl=1eθTlxixi]=xi(1{yi=j}eθTjxikl=1eθTlxi)=xi(1{yi=j}p(yi=j|xi,θ)

上式中,将 log 看成 ln ,另外,每一次的求导其实只是针对 θ 中的某一项 j ,所以其他的θ的非 j 项都为常数,所以求导以后都为0
这样就得到了梯度函数:
Jθj=1ni=1n[xi(1{yi=j}p(yi=j|xi,θ)]

原文出处:http://zjjconan.github.io/articles/2015/04/Softmax-Regression-Matlab/

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值