目录
目录
1、最小二乘线性回归以及Scikit-Learn中的实现函数
2、LinearGegression()的常用方法、奥卡姆剃刀原理
3、岭回归:L2损失+L2正则、Scikit-Learn中的岭回归、Lasso:L2损失+L1正则
4、Scikit-Learn中的Lasso、弹性网络:L2损失+(L1正则+L2正则)
1、最小二乘线性回归以及Scikit-Learn中的实现函数
sklearn.linear_model.LinearGegression()的参数和属性
2、LinearGegression()的常用方法、奥卡姆剃刀原理
3、岭回归:L2损失+L2正则、Scikit-Learn中的岭回归、Lasso:L2损失+L1正则
4、Scikit-Learn中的Lasso、弹性网络:L2损失+(L1正则+L2正则)
5、正则的效果、回归模型中正则项的概率解释
6、贝叶斯估计、贝叶斯最大后验估计