![2db5afb0ef5dc02f5e460141e611d7be.png](https://i-blog.csdnimg.cn/blog_migrate/0860b08c2db4ad4abcbccaa3cb5c8d00.jpeg)
阶段概述:
本阶段讲解,多元线性回归,梯度下降法,归一化,正则化,Lasso 回归,Ridge 回归,多 项式回归
达成目标:
通过本阶段学习,从推导出多元线性回归算法的损失函数,到实现开发和应用算法,再到对 算法从数据预处理上,以及损失函数上的优化都将整体彻底掌握。对后面学习更多算法,甚 至深度学习都将起到举一反三的效果。
实战教学项目:
- 代码实现梯度下降求解多元线性回归
- 保险花销预测案例
多元线性回归
- 简单线性回归
- 最优解与最小二乘法
- 多元线性回归判别式
- 多元线性回归的数学假设
- 利用 MLE 推导出目标函数
- 对数似然推导出 MSE 损失函数
- MSE 求偏导得到参数解析解
- 多元线性回归的 python 代码实现
- 多元线性回归的 sklearn 代码实战
![da6ef5812c24b723a559a12f3e17b89e.png](https://i-blog.csdnimg.cn/blog_migrate/58e54d60a82f0e1fa5b3eac7520bb56c.png)
梯度下降法
- 梯度下降法原理与公式
- 学习率设置的学问
- GD 应用于多元线性回归的流程
- 全量梯度下降的原理与代码实现
- 随机梯度下降的原理与代码实现
- Mini-Batch 梯度下降的原理与代码实现
- 代码实现增加 MBGD 数据的随机性
- 代码实现动态调整学习率
![3a37fcbac0ee013593877dd5d3ea2746.png](https://i-blog.csdnimg.cn/blog_migrate/b5c798d64b996bb1652e2df3f6c79e44.png)
归一化
- 归一化目的与量纲
- 归一化提高模型精度
- 最大值最小值归一化与缺点
- 方差归一化与好处
- 均值归一化与好处
- 标准归一化的代码实战与技巧
![4af1109add39bb1a95f36af7c3666bf1.png](https://i-blog.csdnimg.cn/blog_migrate/48872201e25b241addc91ca5733e42b1.png)
正则化
- 提高泛化能力与防止过拟合
- 正则化用于损失函数
- L1 与 L2 正则项与范数的关系
- 结合 GD 讲解 L1L2 的几何意义
- 透过导函数讲解 L1 的稀疏性
- 透过导函数讲解 L2 的平滑性
![b7f72561412943752966088968588f2a.png](https://i-blog.csdnimg.cn/blog_migrate/b5cdbcecfa0724fa1fcc3856eec3b254.png)
Lasso 回归、Ridge 回归、多项式回归
- Lasso 回归原理与代码实战
- Ridge 回归原理与代码实战
- ElasticNet 回归原理与代码实战
- 升维的意义
- 多项式回归进行升维原理
- 多项式升维代码实战
![0950153b388cf3e3c0ec14e302510f0c.png](https://i-blog.csdnimg.cn/blog_migrate/e9cb1f4f4c8d7a9e95968b78e4bce339.png)
![cec97cca65a231f8d2005eb472f2c09c.png](https://i-blog.csdnimg.cn/blog_migrate/19a53b72a83d87d53b5ee1ac697ee50e.jpeg)