逻辑回归Logicstic

本文详细介绍了逻辑回归,包括模型介绍、Logistic分布、代价函数、求解方法、正则化以及与其他模型(线性回归、最大熵模型、SVM、朴素贝叶斯)的对比。逻辑回归作为分类模型,常用于二分类问题,因其简单、可并行化、可解释性强等特点在工业界广泛使用。
摘要由CSDN通过智能技术生成

本文从互联网搬运,只用于本人学习记录。

1. 模型介绍

Logistic Regression 虽然被称为回归,但其实际上是分类模型,并常用于二分类。Logistic Regression 因其简单、可并行化、可解释强深受工业界喜爱。

Logistic 回归的本质是:假设数据服从这个分布,然后使用极大似然估计做参数的估计。

1.1. Logistic分布

在这里插入图片描述

1.2. Logistic回归

Logistic 回归主要用于分类问题,我们以二分类为例,
在这里插入图片描述
在这里插入图片描述
将 y 视为 x 为正例的概率,则 1-y 为 x 为其反例的概率。两者的比值称为几率(odds),指该事件发生与不发生的概率比值,若事件发生的概率为 p。则对数几率:
在这里插入图片描述
在这里插入图片描述
通过上述推导我们可以看到 Logistic 回归实际上是使用线性回归模型的预测值逼近分类任务真实标记的对数几率,其优点有:

  1. 直接对分类的概率建模,无需实现假设数据分布,从而避免了假设分布不准确带来的问题(区别于生成式模型);
  2. 不仅可预测出类别,还能得到该预测的概率,这对一些利用概率辅助决策的任务很有用;
  3. 对数几率函数是任意阶可导的凸函数,有许多数值优化算法都可以求出最优解。

1.3. 代价函数

逻辑回归模型的数学形式确定后,剩下就是如何去求解模型中的参数。在统计学中,常常使用极大似然估计法来求解,即找到一组参数,使得在这组参数下,我们的数据的似然度(概率)最大。

在这里插入图片描述
即在逻辑回归模型中,我们最大化似然函数最小化损失函数实际上是等价的。

1.4. 求解

优化的主要目标是找到一个方向,参数朝这个方向移动之后使得损失函数的值能够减小,这个方向往往由一阶偏导或者二阶偏导各种组合求得。逻辑回归的损失函数是:
在这里插入图片描述

  1. 随机梯度下降法
    在这里插入图片描述
  2. 牛顿法
    在这里插入图片描述

1.5. 正则化

正则化是一个通用的算法和思想,所以会产生过拟合现象的算法都可以使用正则化来避免过拟合

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值