林轩田机器学习基石观后笔记——逻辑回归(logistic regression)

本文介绍了逻辑回归在二分类问题中的应用,通过实例阐述了如何利用逻辑回归预测心脏病发的几率。详细探讨了问题描述,包括输入样本的特征表示和转化过程,以及通过logistic函数将分数转化为概率。文章进一步讨论了逻辑回归的错误估计,采用交叉熵代价函数进行评估,并解释了使用梯度下降法求解最小错误的过程,包括学习速率的选择和更新终止条件。
摘要由CSDN通过智能技术生成

1.什么情况下用到逻辑回归?
例子:我们手中的资料是病例,上面记载着病人的身体状况以及是否心脏病发,现在要求根据病人的身体状况预测他心脏病发的几率。即我们拿到的训练样本的输出是二分类输出{+1,-1},而我们需要训练出的函数的输出是0~1之间的数。

2.问题描述
已有N个样本这里写图片描述 ,样本资料的输入由d维特征表示这里写图片描述 , 每个样本的输出这里写图片描述 ,要求学习出一个函数h(x),输出一个概率。
可简单描述为以下过程:
由输入样本X得到一个分数:这里写图片描述
再将该分数转化为0~1的数,一般使用logistic function: 这里写图片描述
所以该问题就转化为求出合适的w,使得该函数在已有样本的错误率最小。

3.该模型的错误估计
由于逻辑回归的训练样本和测试样本的输出不同,在训练时我们如何判断训练的效果呢?我们运用交叉熵代价函数(Cross-entropy error)来估计:这里写图片描述
所以最终的问题即求出使得这里写图片描述最小的w.

4.求解最小错误的方法——梯度下降(gradient descent)
①初始w0;
②更新w:这里写图片描述
如何选择学习方向这里写图片描述:如何更新w才能保证这里写图片描述变小呢?推导过程如下: 这里写图片描述,当 和 方向相反时内积最小,所以 这里写图片描述
如何选择学习速率这里写图片描述:考虑稳定性和速率的平衡,这里写图片描述太大,则速度快但可能漏掉最优值, 这里写图片描述太小则比较稳定但速度太慢。
③更新终止条件:这里写图片描述
最终求得的w即为在训练样本上有最小的错误。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值