机器学习基石-10-3-Gradient of Logistic Regression Error



将logistic regression的问题转换成PLA的更新过程,之前的课程中把逻辑回归的概率转换成了“O”和“X”的问题,二分类的问题,就是PLA的问题。将PLA的更新过程扩展到逻辑回归上



v是更新的方向,η是每一次迭代的步长。


iterative  optimization approach迭代优化方法



逻辑回归的Ein是平滑的,v假定是单位长度,η假定是正向的移动。


线性近似,线性逼近:尽量把这个优化目标转换成v的线性问题

对上面的优化目标使用泰勒展开式


  • 当每一次移动的步长很小时,可以使用泰勒展开,优化目标就变成了

  • 只有v是未知的,优化目标就变成了关于v的线性式子。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值