Logistic回归简介和相关的PYTHON实现

本文介绍了Logistic回归在二分类问题中的应用,详细阐述了模型的基本形式、特点以及求解过程。通过Python实现展示了如何使用梯度上升法和Sklearn库训练模型,并探讨了牛顿法作为优化算法的优势。此外,还讨论了正则化在处理自变量多重共线性问题中的作用,以提升模型泛化能力。
摘要由CSDN通过智能技术生成

        在数据建模过程中,就有机器学习的监督学习而言,通常会有一个目标变量(因变量)和若干个可能会对目标变量产生影响的变量(自变量),选用一个模型,结合训练数据集(XY已知)进行训练拟合,再用模型去进行预测。在模型的选择中,Y的分布类型可能会对模型的性质产生影响,通常情况下,因变量Y为正态分布的数值型变量时,采用的是回归预测方式,如线性回归等;因变量Y为贝努利分布的类别变量时,所采用的模型应该是一个分类器,而Logistic回归就是其中之一。

Logistic回归介绍:

        二分类问题的Logistic模型的基本形式如下:


       因变量Y可能属于0或者1两个类别,n为自变量的数量,输出的结果为Y属于1类的概率,概率值P只能介于0和1之间,当P越接近于1,则说明Y越可能属于1类,否则,Y就越可能属于0类。

       就逻辑曲线的形状特征而言,越远离曲线的中心点(自然对树的指数结果为0,P等于0.5),那么自然对数指数每发生单位变动,P的变动幅度则会趋缓;当越接近中心点时,那么自然对数指数每发生单位变动,P的变动幅度则会变得陡峭。

       逻辑回归最为比较简单的几类分类器算法之一,具有一定的自身特点。首先,逻辑回归的形势比较简洁,训练结果的系数值α可以清楚地知道对应的自变量对因变量Y的影响,而输出的P可以作为分类的概率值,容易理解其含义;其次,逻辑回归属于结构简单的机器学习模型,相比于复杂的模型,训练效率非常高,具有一定的“性价比”;再次,逻辑回归可以同时适用于类别型和数值型的自变量。然而,也有一些缺陷,如模型训练会导致自变量多重共线性而影响泛化能力,非线性变化对概率值的区分度的问题等。

        对于逻辑回归的系数α(包含了截距项

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值