看懂SoftMax回归算法之代价函数求偏导的数学推导——机器学习笔记(12)

1、学习背景

这两天学习softmax逻辑回归算法,然后卡在了其代价函数求偏导处,“百科”中说,softmax的代价函数如下:

经过求导,得到梯度公式如下:

作为一个准数学专业毕业十多年的小姐姐,不搞明白推导过程怎能罢休!于是,经过两三天各种“百度”和推导,脑袋大一圈、头发掉一把,快要放弃的时候,终于在一位数学专业的美女同事帮助下,成功推导出上述公式。

于是,为了纪念我牺牲的秀发,仅以此文专门记录softmax代价函数求偏导的数学推导过程。算法的学习笔记以后再做。

2、用到的数学公式

示性函数 1{值为真的表达式}=1;1{值为假的表达式} =0
对数求导 (lnx)'=\frac{1}{x}
  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值