线性回归的概述
【1】最小二乘法(ordinary least squares,ols)
基于均方误差最小化来进行模型求解的方法
缺点:维数过多时容易出现过拟合
【2】岭回归(rideg regression)
在ols的基础上引入L2范数正则化
的参数越大,回归参数越小,模型越平稳
缺点:回归参数的模型值很小,但是很难达到0值;
【3】loss回归(lasso)
在ols的基础上引入L1范数正则化
lasso回归参考文献 :https://www.cnblogs.com/wmx24/p/9555219.html