逻辑回归-sklearn

1.概述

逻辑回归,是一种线性分类器。其本质是由线性回归变化而来的,一种广泛使用于分类问题中的广义回归算法。

最小二乘法就是用来求解线性回归中参数的数学方法。

2.sklearn中的逻辑回归

请添加图片描述
(1)逻辑回归分类器(又叫logit回归,最大熵分类器)
(2)带交叉验证的逻辑回归分类器
(3)利用梯度下降求解的线性分类器(SVM,逻辑回归等等)

3. linear_model.LogisticRegression

请添加图片描述
其中, 表示求解出来的一组参数,m是样本的个数, 是样本i上真实的标签, 是样本i上,基于参数 计算出来的逻辑回归返回值, 是样本i各个特征的取值。
请添加图片描述
这就是我们的交叉熵函数。我们希望将极大值问题转换为极小值问题,因此我们对logP取负,就得到了
请添加图片描述

3.重要参数

(1)penalty & C

正则化是用来防止模型过拟合的过程,常用的有L1正则化和L2正则化两种选项,分别通过在损失函数后加上参数向量的L1范式和L2范式的倍数来实现。
请添加图片描述
其中L1范式表现为参数向量中的每个参数的绝对值之和,L2范数表现为参数向量中的每个参数的平方和的开方值。
其中 是我们之前提过的损失函数,C是用来控制正则化程度的超参数,n是方程中特征的总数,也是方程中参数的总数,j代表每个参数。

L1正则化和L2正则化虽然都可以控制过拟合,但它们的效果并不相同。当正则化强度逐渐增大(即C逐渐变小),参数 的取值会逐渐变小,但L1正则化会将参数压缩为0,掌管了参数的“稀疏性”。,L2正则化只会让参数尽量小,不会取到0。

(2)max_iter

逻辑回归的数学目的是求解能够让模型最优化,拟合程度最好的参数 的值,即求解能够让损失函数 最小化的值。
梯度下降求解逻辑回归
请添加图片描述
其中 是第j次迭代后的参数向量, 是第j次迭代是的参数向量, 被称为步长,控制着每走一步(每迭代一次)后 的变化,并以此来影响每次迭代后的梯度向量的大小和方向。

(2)class_weight

样本不平衡

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值