logistic回归算法原理(1)

1、LR的一般表述

一般的线性回归模型,输出值y\in \left ( -\infty ,\infty \right );对于分类模型来说,y>0表示正例,y<0表示负例。在很多场景中,我们希望输出值y能类似于概率一样介于0~1之间,所以可以通过一个映射函数h_{w}\left ( x \right ),将其表示为:

                                  0<h_{w}\left ( x \right )<1h_{w}\left ( x \right )=g\left ( w^{T}\cdot x \right )

映射函数的选择有很多种,最理想的是“单位阶跃函数”,但是单位阶跃函数不连续(即损失函数不可导),所以不能直接使用。我们希望找到一定程度上近似单位阶跃函数的替代函数,并希望它可单调可微。

对数几率函数是形状近似与S形的函数,是sigmoid函数的一种,它将z值转换为一个接近0或者1的y值,并且其输出值在z=0附近变化很陡。使用对数几率函数时:

                                               h_{w}\left ( x \right )=\frac{1}{1+e^{-w^{T\cdot x}}}

直观地理解:

                                   p\left ( y=1|w,x \right )=h_{w}\left ( x \right )                                      输出y为正例的概率

                                   p\left ( y=0 |w,x\right )=1-h_{w}\left ( x \right )                               输出y为负例的概率

 

2、LR作为二分类的依据

如果了解线性回归的小伙伴都知道,线性回归时假设残差服从正态分布,而这里我们要提到logistic分布。logistic分布为:<

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
逻辑回归是一个经典的分类算法,它可以处理二元分类以及多元分类。逻辑回归的原理是由线性回归模型演变而来的,因此含有“回归”二字,但它并不是一个回归算法,而是属于广义线性模型的一类。[2] 逻辑回归的基本原理可以概括为以下几个步骤: 1. 寻找预测函数:逻辑回归模型通过定义一个预测函数来预测观测样本的分类概率。常用的预测函数是sigmoid函数,也称为逻辑函数。这个函数将输入值映射到一个介于0和1之间的概率值。 2. 构造损失函数:为了使模型能够学习到最优的参数,需要定义一个损失函数来衡量预测值与真实值的差距。常用的损失函数是交叉熵损失函数,它可以度量模型的预测与实际分类之间的误差。 3. 损失函数的优化方法:为了最小化损失函数,常用的优化方法是梯度下降法。梯度下降法通过迭代更新模型参数,使得损失函数逐渐减小,从而达到寻找最优参数的目的。 逻辑回归的优点包括:实现简单,计算效率高,模型可解释性强,可以处理线性可分问题,并且可以通过调整阈值来控制分类的准确率与召回率的平衡。缺点包括:对于非线性可分问题表现较差,并且对异常值敏感。 逻辑回归与线性回归的区别在于目标变量的类型不同。线性回归用于预测连续型变量,而逻辑回归用于预测分类变量。此外,逻辑回归使用了sigmoid函数来模拟分类概率,而线性回归没有这个步骤。 以上是关于逻辑回归原理的一些简要介绍。如果需要更加详细的内容,可以参考引用的材料进行进一步学习。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值