逻辑斯蒂回归_机器学习:线性学习之逻辑斯蒂回归

这篇笔记探讨了如何使用逻辑斯蒂回归进行二分类任务。逻辑斯蒂函数作为阶跃函数的平滑替代,将线性模型的实值预测转换为0/1输出,解决了分类问题。这种方法无需事先假设数据分布,且模型可直接优化,适用于处理连续属性值。此外,还介绍了如何处理离散属性值的方法:连续化或转换为向量。逻辑斯蒂回归在分类任务中表现出诸多优点,如概率预测、灵活性和可优化性。
摘要由CSDN通过智能技术生成

笔记之前的内容都是在讲解如何利用线性模型进行回归学习,完成回归任务,而这次的笔记要记录的则是如何去做分类任务。

47297abe779e91cff5dff02a9452c0f3.png

首先考虑的是二分类任务,其输出标记y∈{0,1},但线性回归模型产生的预测值z=w^t·x+b是实值,因此需要将实值z转换为0/1值。最容易想到的联系函数g(·)自然为阶跃函数。

282856e29cfd443f58da81577539822a.png

但单位阶跃函数不连续,因此不能直接作为联系函数g(·)。于是逻辑斯蒂函数作为替代函数就登场了,它在一定程度上近似单位阶跃函数,并且在临界点连续且单调可微。

1232d6ac657a20b6b21e9ab24f718ee9.png

逻辑斯蒂函数近似s,它将z值转化为一个接近0或1的y值,并且其输出值在z=0附件变化很陡。其对应的模型称为逻辑斯蒂回归,虽然它的名字是“回归”,但实际上却是一种分类学习方法。

逻辑斯蒂回归有很多优点:1)可以直接对分类无能性进行预测,将y视为样本x作为正例的概率;2)无需事先假设数据分布,这样就避免了假设分布不准确所带来的问题;3)是任意阶可导的凸函数,可直接应用现有数值优化算法求取最优解。

将y视为样本x属于正例的概率p{y=1|x},根据逻辑斯蒂函数很容易得到:

25de4bee809e35e220c70155413255f2.png

逻辑斯蒂回归只能求解连续属性值问题,不能求解离散属性值问题,对于离散属性值得处理:

√ 若属性值之间存在着“序”关系:通过连续化将其转化为连续值

√ 若属性值之间不存在着“序”关系:通常可将K个属性值转换为K维向量

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值