逻辑回归问题汇总

文章目录1. Logistic回归与线性回归的区别与联系?2. Logistic回归有哪些基本假设?3. Logistic回归的损失函数?4. Logistic回归损失函数的求解方法?5. Logistic回归是如何进行分类的?6. Logistic回归为什么要用极大似然函数作为损失函数?7. 为什么在Logistic回归训练的过程中要将高度相关的特征去掉?8. Logistic回归有哪些优缺点?...
摘要由CSDN通过智能技术生成

一句话概括: 逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法,运用梯度下降来求解参数,来达到将数据二分类的目的
包含了5个点 : 1:逻辑回归的假设,2:逻辑回归的损失函数,3:逻辑回归的求解方法,4:逻辑回归的目的,5:逻辑回归如何分类。


1. Logistic回归与线性回归的区别与联系?

区别:
最大区别在于它们的因变量不同,Logistic回归与现行回归属于同一家族:广义线性模型。

  • (1)线性回归处理的是回归问题,逻辑回归处理的是分类问题,这是本质区别;
  • (2)线性回归要求因变量是连续型的,Logistic回归要求因变量是分类变量(离散变量);
  • (3)线性回归要求变量服从正态分布,Logistic回归对变量分布无要求;
  • (4)线性回归要求自变量和因变量呈线性关系,Logistic并不要求;
  • (5)Logistic回归是分析因变量取某个值的概率与自变量的关系,而线性回归是直接分析因变量与自变量的关系;
    更详细的区别如下图,参考学术群里结果:
    在这里插入图片描述
    联系:
  • (1)二者都使用了极大似然估计来对训练样本进行建模
    • 线性回归使用最小二乘法,实际上就是在自变量x与超参数θ确定,因变量y服从正态分布的假设下,使用极大似然估计的一个化简;而逻辑回归中通过对似然函数的学习,得到最佳参数θ;
  • (2)二者在求解超参数的过程中,都可以使用梯度下降的方法,这也是监督学习中一个常见的相似之处。

2. Logistic回归有哪些基本假设?

逻辑回归的第一个基本假设是假设数据服从伯努利分布。
伯努利分布有一个简单的例子是抛硬币,抛中为正面的概率是 p p p,抛中为负面的概率是 1 − p 1−p 1p
在逻辑回归里假设 h θ ( x ) h_θ(x) hθ(x) 为样本为正的概率, 1 − h θ ( x ) 1−h_θ(x) 1hθ(x)为样本为负的概率,那么模型可以描述为:
h θ ( x ; θ ) = p h_\theta\left(x;\theta \right )=p hθ(x;θ)=p

逻辑回归的第二个假设是假设样本为正的概率是:
p = 1 1 + e − θ T x p=\frac{1}{1+e^{-\theta^{T} x}} p=1+eθTx1

所以逻辑回归的最终形式 :
h θ ( x ; θ ) = 1 1 + e − θ T x h_\theta\left(x;\theta \right )=\frac{1}{1+e^{-\theta^{T} x}} hθ

  • 18
    点赞
  • 65
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值