通俗理解线性回归(Linear Regression)

线性回归, 最简单的机器学习算法, 当你看完这篇文章, 你就会发现, 线性回归是多么的简单.

首先, 什么是线性回归. 简单的说, 就是在坐标系中有很多点, 线性回归的目的就是找到一条线使得这些点都在这条直线上或者直线的周围, 这就是线性回归(Linear Regression).

是不是有画面感了? 那么我们上图片:
![1.png][1]

那么接下来, 就让我们来看看具体的线性回归吧

首先, 我们以二维数据为例:
我们有一组数据 x x x y y y, 其中 x x x是我们的特征, y y y就是我们的真实值(也就是每一个x对应的值), 我们需要找到一个 w w w b b b从而得到一条直线 y = w x + b y=wx+b y=wx+b, 而这条直线的 w w w b b b就是我们线性回归所需要求的参数

那么, w w w b b b需要怎样求得呢? 那么我们需要先来了解一下他的机制

如我们之前所说, 我们需要这条直线使得所有的点尽可能的在直线上或者直线的两边, 也就是说, 我们这些 x x x在我们直线上对应的值与我们真实的值的差尽可能的小, 即 ∣ y − ( w x + b ) ∣ |y-(wx+b)| y(wx+b)尽可能的小, 因此就有了我们的损失函数:
L = 1 n ∑ i = 1 n ( y − ( w x + b ) ) 2 L=\frac1n\sum^n_{i=1}(y-(wx+b))^2 L=n1i=1n(y(wx+b))2

那么我们的目标就变成了使得 L L L尽可能的小

首先我们对损失函数求导:
∂ L ∂ ω = 2 ( ω ∑ i = 1 n x i 2 − ∑ i = 1 n ( y i − b ) x i ) = 0 \frac{\partial L}{\partial\omega}=2\left(\omega\sum^n_{i=1}x_i^2-\sum^n_{i=1}(y_i-b)x_i\right)=0 ωL=2(ωi=1nxi2i=1n(yib)xi)=0
∂ L ∂ b = 2 ( n b − ∑ i = 1 n ( y i − ω x i ) ) = 0 \frac{\partial L}{\partial b}=2\left(nb-\sum^n_{i=1}(y_i-\omega x_i)\right)=0 bL=2(nbi=1n(yiωxi))=0
求解以后可得:
ω = ∑ i = 1 n y i ( x i − x ‾ ) ∑ i = 1 n x i 2 − 1 m ( ∑ i = 1 m x i ) 2 \omega=\frac{\sum^n_{i=1}y_i(x_i-\overline x)}{\sum^n_{i=1}x^2_i-\frac1m\left(\sum^m_{i=1}x_i\right)^2} ω=i=1nxi2m1(i=1mxi)2i=1nyi(xix)
b = 1 m ∑ i = 1 n ( y i − ω x i ) b = \frac1m\sum^n_{i=1}(y_i-\omega x_i) b=m1i=1n(yiωxi)
其中 x ‾ = 1 n ∑ i = 1 n x i \overline x=\frac1n\sum^n_{i=1}x_i x=n1i=1nxi x ‾ \overline x x x x x的均值

而这就是我们的最小二乘法, 求解得到的 w w w b b b就是我们拟合出来的直线的参数.

[1]: https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=https%3A%2F%2Fxiaoxiablogs.top%2Fusr%2Fuploads%2F2020%2F09%2F2554413617.png&pos_id=img-mfAwErdH-1718592128285)

那么就下来, 我们来看一看当 X X X为多维的情况, 也就是多元线性回归
与上面的一样, 我们需要拟合一个直线 w T X + b w^TX+b wTX+b使得大多数的点在直线上或者在直线周围, 不同的是, 现在我们的 w w w是多维的, 而我们的损失函数也就变成了
L = 1 n ∑ i = 1 n ( y − ( w T X + b ) ) 2 L=\frac1n\sum^n_{i=1}(y-(w^TX+b))^2 L=n1i=1n(y(wTX+b))2

根据上面的经验, 我们需要对损失函数求偏导, 在这里就不赘述了, 大家可以参考https://xiaoxiablogs.top/index.php/机器学习/least-square-method.html

以上, 就是我们的线性回归以及使用最小二乘法求线性回归了

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小夏refresh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值