线性和逻辑回归通常是在机器学习和数据科学等领域研究的第一类回归类型。这两种方法都被认为是有效的,因为它们易于理解和使用。然而,这种简单性也有几个缺点,在许多情况下,最好选择另一种回归模式。有许多类型的回归,每一种都有其优点和缺点。
我们将熟悉5种最常见的回归算法并描述它们的属性。我们还将了解在哪种情况下使用哪种类型的数据更好地使用一种算法。最后,我们将讨论一些用于构建回归的工具,并帮助更好地理解回归模型!
线性回归
回归是一种用于建模和分析变量之间关系的方法,以及这些变量如何共同影响特定结果的实现。线性回归是一种由相互关联变量组成的回归模型。成对(简单)线性回归是一种模型,允许通过线性模型(例如直线)来模拟单个独立值和单个输出变量的值之间的关系。
更常见的模型是多元线性回归,这意味着在多个独立输入和一个输出变量之间建立线性关系。这样的模型仍然是线性的,因为输出是输入变量的线性组合。我们可以建立多元线性回归模型如下:
Y = a_1 * X_1 + a_2 * X_2 + a_3 * X_3 ....... a_n * X_n + b
其中a_n 是系数,X_n 是变量,b是 偏移量。正如我们所看到的,此函数不包含非线性系数,因此只适用于线性可分离数据建模。很简单:我们使用加权因子a_n 对每个变量X_n的值进行加权。使用随机梯度下降计算这些权重a_n以及偏移b。如下面的图表: