Ridge回归通过对系数的大小施加惩罚来解决普通最小二乘法的一些问题,岭系数最小化的是带惩罚项的残差平方和
其中惩罚项的系数越大,收缩量越大,这样的系数对共线性的鲁棒性也更强
与其他的线性模型一样,Ridge用fit方法将模型系数存储在conf_成员中
from sklearn import linear_model
reg = linear_model.Ridge(alpha=.5)
reg.fit([[0,0],[0,0],[1,1]],[0,.1,1])
输出
reg.coef_
reg.intercept_
输出
下面解释一下sklearn.linear_model.ridge