逻辑回归 – Logistic regression

逻辑回归是一种监督学习中的分类算法,具有实现简单、计算速度快等优点,但可能在处理大量多类特征或非线性问题时效果不佳。本文对比了逻辑回归与线性回归,并详细介绍了逻辑回归的损失函数构造、sigmoid函数及其求解方法,包括梯度下降法和最大似然法。同时,提供了手动推导过程和Python代码实现。
摘要由CSDN通过智能技术生成

一:什么是逻辑回归

逻辑回归在机器学习中的位置

由图示知:逻辑回归是机器学习中的一种监督学习的一种分类

机器学习--监督学习--分类--逻辑回归

二:逻辑回归的优缺点

优点:

  • 实现简单,广泛的应用于工业问题上;
  • 分类时计算量非常小,速度很快,存储资源低;
  • 便利的观测样本概率分数;
  • 对逻辑回归而言,多重共线性并不是问题,它可以结合L2正则化来解决该问题;
  • 计算代价不高,易于理解和实现;

缺点:

  • 当特征空间很大时,逻辑回归的性能不是很好;
  • 容易欠拟合,一般准确度不太高
  • 不能很好地处理大量多类特征或变量;
  • 只能处理两分类问题(在此基础上衍生出来的softmax可以用于多分类),且必须线性可分
  • 对于非线性特征,需要进行转换;

三:逻辑回归 VS 线性回归

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值