回归(Regression)
定义(摘自百度百科):回归分析是一种数学模型。当因变量和自变量为线性关系时,它是一种特殊的线性模型。最简单的情形是一元线性回归,由大体上有线性关系的一个自变量和一个因变量组成;模型是Y=a+bX+ε(X是自变量,Y是因变量,ε是随机误差)。通常假定随机误差的均值为0,方差为σ^2(σ^2﹥0,σ^2与X的值无关)。//若进一步假定随机误差遵从正态分布,就叫做正态线性模型。
例如公式:Y = aX + b
斜率(Slope):a
截距(Intercept) :b
from sklearn.linear_model import LinearRegression
reg = LinearRegression()
reg.fit(features_train,targets_train)
slope = reg.coef_
intercept = reg.intercept_
train_score = reg.score(features_train,targets_train)
test_score = reg.score(features_test,targets_test)
线性回归误差(linear regression error)
这里的误差并非真正意义上的“错误”,而是一个技术性用语,表示回归线预测的净值之间的差异。
应用例子:最小二乘法:预测