import numpy as np
from sklearn.linear_model import LinearRegression
import matplotlib.pyplot as plt
X1 = 2 * np.random.rand(100, 1)
X2 = 2 * np.random.rand(100, 1)
X = np.c_[X1, X2]
y = 4 + 3 * X1 + 5 * X2 + np.random.randn(100, 1)
reg = LinearRegression(fit_intercept=True)
reg.fit(X, y)
print(reg.intercept_, reg.coef_)
X_new = np.array([[0, 0],
[2, 1],
[2, 4]])
y_predict = reg.predict(X_new)
plt.plot(X_new[:, 0], y_predict, 'r-')
plt.plot(X1, y, 'b.')
plt.axis([0, 2, 0, 35])
plt.show()
我们为了去计算出截距项,我们还人为的添加了一个 X0 列 向量,这里我们并没有这样去做,所以可想而知这个 sklearn 封装的类里面肯定是有点门道 的,里面是可以有些超参数传递的,python 里面的生成对象的第一个参数都是 self,我们 可以不用管这个,直接可以把 self 之后的参数看成是可以传的参数
这里我们可以看到有一个参数是 fit_intercept=True,之所以是有等号是代表是有默认值, True 代表这个多元线性回归会帮助我们去计算截距项 W0,本质就是会帮助我们去把 X 身 上加上 X0 一列再去求解方程
截距项 和参数系数
当fit_intercept=False时:
分析一下有截距项和没有截距项的区别:
注意:这里我们训练模型的时候用的训练集 的 X 是两个特征,那么我们这里去使用模型的时候传给模型的 X_new 也得是两个维度
模型: