数字设计—原理与实践(第4版)_机器学习第4篇——线性回归2(原理和实践)

本文详细介绍了线性回归的概念,包括简单线性回归的公式推导、最小二乘法的应用以及多元回归的原理。通过求解损失函数的偏导数,得到参数的最优解。此外,还讨论了在X矩阵不满秩情况下的正则化处理。最后,提到了线性回归的编程实现和实践应用。
摘要由CSDN通过智能技术生成

d80b130744efe602025e7b8a0b3db610.png

上一篇相对静止:机器学习第1.5篇——线性回归(基础概念) 介绍了相关的关键概念

本篇主要介绍简单线性回归的公式推导编程实践

d3674a99f9d570ea328be8775c678537.png
本文大纲

1.简单线性回归及最小二乘法的公式推导

一元线性回归方程:

572b31ec120dc986900650085a638292.png
1元线性回归方程

损失函数:使用几何上欧式距离的平方和——方差和

b2289697ff530761c9f3edc0c60a81f8.png
方差公式

求解两个参数:最小化损失SE

4c11fbbecb3446aff19093e5e79efb8f.png
求解两个参数的方程

求解过程:

在损失函数中分别对两个参求偏导,并让偏导等于0(凸函数最优解)

ff988f5c36955f84d7b9f6eb47d566c3.png
分别求偏导

会得到包含2个参数的2个方程(方程组对应矩阵为正定矩阵?),可以求得唯一解,综合以上两式可得(偏导等于0):

18518c9d6e445bea9556376ce7737116.png

8abb8776f06c051d973d9ce1eede6583.png

2.多元回归方程

目标函数为:

ba741c58bb8cea995a07987a03575851.png

67331bc62e9e2d2f448af438690fe434.png
方程组对应的矩阵(d为属性维度,m为数据集行数)

将参数也用矩阵形式表示:

f304a383829d67e00378085128d371fb.png

所以原式可表示为:

0826163e26c2229aaf5c1b7e0e985d8a.png

损失可表示为(根据矩阵运算规则):

cebcf1136ab72dafbea7f7979f8dbd08.png
损失函数(Y表示样本实际结果)

啥运算规则,还需要补课

对参数求偏导可得:

5f5948abf2f41c71c8cb42924bb45581.png

令偏导为0,可求出参数值:

5a4edda2618fdbf82e3e2bad8b7cb28a.png
然而,现实任务中然而,现实任务中 xTx 往往不是满秩矩阵.例如在许多任务中我们会遇到大量的变量,其数目甚至超过样例数,导致 X 的列数多于行数, xTx 显然不满秩。此时可解出多个解,它们都能使均方误差最小化。选择哪一个解作为输出 ,将由学习算法的归纳偏好决定,常见的做法是引入正则化 (regularization)项. ——《机器学习》周志华 P56

3.线性回归代码实现

略过手撕代码

4.线性回归实践

# 数据集下载:参考资料5

5.进阶探讨的问题

  1. 正则化的作用
  2. 尝试其它模型(岭回归、决策树、随机森林等)

参考资料:

  1. 《机器学习》.周志华 第三章
  2. 机器学习(1)-西瓜书-线性回归
  3. 线性回归损失函数求解
  4. sklearn官方文档:LinearRegression
  5. 数据集及其相关字段说明

下一篇:

相对静止:机器学习第5篇——最优化方法(梯度下降发)​zhuanlan.zhihu.com
517793e422db9a1e0742c82c366cb718.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值