逻辑回归 - 二分类

模型简介

逻辑回归实际上是一个分类算法,其应用于对样本数据进行分类的场景中。

逻辑回归实现二分类

# 导入库
from sklearn import linear_model

# 训练集
X = [[20, 3],
     [23, 7],
     [31, 10],
     [42, 13],
     [50, 7],
     [60, 5]]

y = [0,
     1,
     1,
     1,
     0,
     0]

# 线性模型
lr = linear_model.LogisticRegression()
# 训练
lr.fit(X, y)

# 测试集
testX = [[28, 8]]  # 要与训练集一样写成二维数组样式
# 预测
label = lr.predict(testX)
prob = lr.predict_proba(testX)
print("predicted Label: ", label)
# 预测概率为0 和 1分别为多少
print("probablity = ", prob)

输出结果
在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
拟(Generalized Linear Model,简称GLM)是一种广泛应用于分类和回归问题的统计模型。逻辑回归是GLM的一种特殊情况,用于解决二分类问题。 在逻辑回归中,我们希望根据输入变量的线性组合来预测一个二元变量的概率。逻辑回归使用逻辑函数(也称为sigmoid函数)将线性输出转换为概率值。逻辑函数的公式如下: p = 1 / (1 + exp(-z)) 其中,p表示概率值,z表示线性组合的结果。线性组合的计算可以表示为: z = b0 + b1*x1 + b2*x2 + ... + bn*xn 其中,b0,b1,b2...bn分别表示模型的参数(也称为系数),x1,x2...xn表示输入变量。 逻辑回归模型的训练过程是通过最大似然估计来确定参数的值,使得模型预测的概率最大化与实际观测结果的概率相符。 逻辑回归具有以下优点: - 简单易实现:模型参数的估计相对简单,可以通过常用的优化算法进行求解。 - 可解释性强:可以通过参数的值来解释变量对结果的影响程度。 - 可以处理线性可分和线性不可分的问题。 然而,逻辑回归也有一些局限性: - 只能处理二分类问题:逻辑回归只能对二元变量进行分类,无法直接处理多分类问题。 - 对线性关系敏感:逻辑回归假设输入变量与输出变量之间存在线性关系,对非线性关系的拟合能力较弱。 总的来说,逻辑回归是一种强大的分类模型,特别适用于二分类问题。在实际应用中,可以通过特征工程和模型优化来提高逻辑回归的性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值