1、逻辑回归与线性回归的联系与区别
线性回归: 线性回归是通过大量的样本训练,进行有监督的学习,学习X到Y的映射,利用该映射关系对未知数据进行评估预测。(例如:预测房价),由于Y是连续值,所以是回归问题。
逻辑回归:逻辑回归同样是有监督学习,旨在解决二分类问题。在空间中找到一条决策边界,来将两种类型的值分开。
线性回归可以解决连续值的预测,但是不能解决分类问题,逻辑回归可以解决分类问题,所以逻辑回归就是将线性回归的结果通过sigmoid函数映射到(0,1)之间。
2、 逻辑回归的原理
逻辑回归的本质是一个返回对数几率,在线性数据上表现优异的分类器。
逻辑回归过程:面对一个分类问题,建立代价函数,通过优化方法迭代求出最优的模型参数。
3、逻辑回归损失函数推导及优化
为了数学上的便利,我们将求极大值问题转换为极小值问题,对 l(θ)取负数,让参数θ为函数的自变量,这样就的得到了J(θ)
4、 正则化与模型评估指标
正则化是用来防止模型过拟合的过程,特征较多是使用效果更佳,常用的有L1正则化和L2正则化两种选项,分别通过在损失函数后加上参数
向量θ的L1范式和L2范式的倍数来实现。
其中L1范式:(参数向量中的每个参数的绝对值之和)
L2范式:(参数向量中的每个参数的平方和开方)
5、逻辑回归的优缺点
优点:1. 速度快,适合二分类,对线性关系的拟合效果特别好
2.计算快,容易理解,可直接看到各个特征的权重
3.能容易的更新模型,抗噪能力强
4.在小数据集上表现更好
缺点:对数据和场景的适应能力有限,没有树模型适应性强
6、样本不均衡问题解决办法
链接:https://www.zhihu.com/question/63687805/answer/223881884