线性回归和逻辑回归的区别_逻辑回归

python逻辑回归分类算法:

逻辑回归不是回归算法,是分类算法,本身就是一个二分分类的算法。

二分分类:分类结果标签只有两个。

机器算法输入的标签是数值型。

与线性回归算法的区别:

线性回归预测的结果y是连续的数值。

逻辑回归预测的结果y是离散型数值。

逻辑回归的原因是逻辑函数参数z是一个回归函数。

逻辑函数:

可以将y值控制在0-1之间。

逻辑函数值表示分类结果为某一个标签值时的概率值,通过映射关系到标签值上面。

将训练数据的值的特征和标签转换成一个决策面。

python实现方法:sklearn实现逻辑回归。

步骤:

1.提取特征和标签。

2.建立训练数据,测试数据。

9cc3789804735f846207161a886c29ba.png

3.训练模型

导入逻辑回归函数,创建逻辑回归模型,训练数据用fit函数。

4.评估模型准确率。

测试数据导入到模型,是X_test,y_test导入,结果是准确率。

5.通过考试的概率值的函数:model.predict_proba()

总结:

1.线性回归适合连续型特征和标签的数据。

逻辑回归适合离散型特征和标签的数据。

2.逻辑回归是逻辑函数里面套用了回归函数。

3.线性回归重点是得出最佳拟合线。

逻辑回归重点是得出决策面。

4.线性回归是通过决定系统R平方确定准确率。

逻辑回归是通过正确率决定模型是否准确。

5.逻辑回归可以预测通过考试的概率值。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
线性回归逻辑回归是两种常见的统计学习方法,它们在应用场景、模型形式和目标函数等方面有一些区别,下面是它们的主要区别: 1. 应用场景:线性回归主要用于预测连续型的数值输出,例如房价预测。而逻辑回归主要用于解决二分类问题,例如预测一个样本是否属于某个类别。 2. 模型形式:线性回归模型是一个线性函数,通过对特征的线性组合来预测输出变量。逻辑回归模型通过线性组合后再经过一个非线性的逻辑函数(如Sigmoid函数)来预测概率或分类结果。 3. 目标函数:线性回归使用平方损失函数来度量预测值与实际值之间的差异,目标是最小化损失函数。逻辑回归使用对数似然损失函数来度量预测概率与实际类别之间的差异,目标是最大化似然函数。 4. 输出范围:线性回归的输出是一个连续的数值,可以是任意实数。逻辑回归的输出是一个概率值,介于0和1之间,表示样本属于某个类别的概率。 5. 模型解释:线性回归模型可以通过回归系数来解释特征对输出的贡献程度,系数的正负可以表示特征与输出的正向或负向关系。逻辑回归模型的系数可以表示特征对输出概率的影响程度,但不像线性回归那样直接解释特征与输出的关系。 总而言之,线性回归逻辑回归在应用场景、模型形式、目标函数和输出范围等方面存在较大的区别线性回归用于预测连续值,逻辑回归用于二分类问题;线性回归使用平方损失函数,逻辑回归使用对数似然损失函数。这些区别使得它们适用于不同类型的问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值