线性回归(Linear Regression)
是一种用于建立和分析变量之间线性关系的统计模型。在简单线性回归中,我们尝试通过一个自变量来预测一个因变量的取值;在多元线性回归中,我们则使用多个自变量来预测一个因变量。
线性回归的目标是找到一条最佳拟合直线(或超平面),使得观测数据点到这条直线(或超平面)的距离之和最小化,通常使用最小二乘法来实现这一目标。
通过线性回归模型,我们可以对数据进行预测、探索变量之间的关系,以及评估变量对因变量的影响程度等。线性回归在实际应用中被广泛使用,例如在经济学、社会科学和自然科学领域。
下面是一个简单的代码例子
运行结果:
逻辑回归(Logistic Regression)
实际上是一种用于解决分类问题的统计学习方法,而不是回归问题。尽管名字中带有“回归”,但逻辑回归通常用于处理二分类问题,也可以扩展到多分类问题。
在逻辑回归中,我们使用逻辑函数(也称为 S 形曲线)将输入特征与一个离散的输出变量(例如 0 或 1)相关联。逻辑函数的形式为 ( \frac{1}{1+e^{-z}} ),其中 z 是输入特征的线性组合。通过对输入特征进行加权求和,并通过逻辑函数进行转换,逻辑回归可以估计出输入特征对输出变量的影响,并输出一个介于 0 和 1 之间的概率值。
逻辑回归常用于预测某个事件发生的概率,例如患病与否、用户点击广告的概率等。逻辑回归模型还常被应用于各种领域,如医学、社会科学和工程领域。
总的来说,逻辑回归是一种强大的分类算法,尤其适用于处理二分类问题
下面是一个简单的例子:
运行结果:
二者比较:
尽管都带着回归一词,但实际上解决的是不同类型的
模型形式:
线性回归:使用线性方程拟合数据,最小化观测数据点到拟合直线的距离。
逻辑回归:使用逻辑函数(Sigmoid 函数)将输入特征与概率相关联,通过最大化似然函数来拟合数据,以估计类别概率。
输出:
线性回归:输出是一个连续的数值,代表了对因变量的预测。
逻辑回归:输出是一个介于0和1之间的概率值,通常用于判断某个样本属于某一类别的概率。
目标:
线性回归:用于建立和分析变量之间的线性关系,通过对连续型因变量的预测来进行数值预测。
逻辑回归:用于处理分类问题,通过对输入特征进行加权求和并通过逻辑函数转换得到一个介于0和1之间的概率值,常用于预测二分类或多分类问题。