《机器学习实战》第五章:logistic回归+梯度计算 笔记

看《统计学习方法》的logistic回归和最大熵模型那一章,真的是云里雾里。。。数学功底太弱。。。以下是《机器学习实战》的关于logistic回归的读书笔记,感觉通俗易懂很多。。。


logistic回归的回归,其实是寻找合适的weights。。。logisitic回归也是用于解决分类问题的,使用的是sigmoid函数:

sigmoid的函数输入值z大于0.5的话,就返回1,小于则返回0. 那么我们要做的就是给定这个z,z的计算公式如下:


xo,x1,x2,,,,xn代表特征们。wo,w1,w2,,,wn即为我们要找的weights,也即我们拟合的对象。


接下来介绍拟合方法:

1.梯度上升法(其实也可以叫梯度下降法。。。)




这个说明的就很详细了,在某个特征上移动的方向是:函数在这个特征上的偏导数的方向(对wi求偏导数!!!这是关键,千万别理解成是对xi求偏导!!!),移动的步长为apfh,(卷机神经网络里一般叫学习率)。

给出代码示栗:


代码其实比较好理解,精髓在于最后的三行:




以上就是梯度上升的方法。主要记住是对wi进行偏导数计算以确定wi的更新方向,这一概念不能混淆了。。。回归就是寻找wi的值。。。

再来张cs视频的图:


 嗯,挺直观了吧。。。



2.随机梯度上升:

核心:一次仅用一个样本点来更新回归系数(wi)




收敛的概念:参数达到稳定值,不再一直变化。。。



一些没法正确分类的样本点,每次迭代到他们的时候,就会使得wi得发生一下剧烈的波动。。。:



3. 改进的随机梯度上升:



改进的随机梯度上升,不再会出现周期性的波动,收敛速度也更快。得力于以上的两大改善:随机选取样本更新w和动态改变每一次的alpha(也就是学习率)。











  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值