线性回归总结

我们先来了解下最小二乘的思想。**简单的来说,最小二乘的思想就是要使得观测点和估计点的距离的平方和达到最小。**这里的二乘指的是用平方来度量观测点与估计点之间的远近,最小则指的是参数的估计值要保证各个观测点与估计点之间的距离的平方和达到最小。

一元线性回归

假设我们的模型只有一维数据时,模型就是一条直线 f ( x ) = a x + b f(x)=ax+b f(x)=ax+b,我们有 m m m条训练数据,训练损失函数为误差平方和的平均数:
L ( a , b ) = 1 m ∑ i = 1 m [ ( a x i + b ) − y i ] 2 L(a,b) = \frac{1}{m}\sum_{i=1}^{m}[(ax_i + b)-y_i]^2 L(a,b)=m1i=1m[(axi+b)yi]2

可以对a和b分别求导,导数为0时,损失函数最小。

∂ ∂ a L ( a , b ) = 2 m ∑ i = 1 m x i ( a x i + b − y i ) = 2 m ( a ∑ i = 1 m x i 2 − ∑ i = 1 m ( y i − b ) x i ) \begin{aligned} \frac{\partial}{\partial a}L(a,b) =&\frac{2}{m}\sum_{i=1}^m x_i(ax_i + b -y_i) \\ =& \frac{2}{m}(a\sum_{i=1}^m x_i^2 - \sum_{i=1}^m(y_i-b)x_i) \end{aligned} aL(a,b)==m2i=1mxi(axi+byi)m2(ai=1mxi2i=1m(yib)xi)

∂ ∂ b L ( a , b ) = 2 m ∑ i = 1 m a x i + b − y i = 2 m ( m b − ∑ i = 1 m ( y i − a x i ) ) \begin{aligned} \frac{\partial}{\partial b} L(a,b) =& \frac{2}{m}\sum_{i=1}^m ax_i + b - y_i \\ =& \frac{2}{m}(mb - \sum_{i=1}^m(y_i - ax_i)) \end{aligned} bL(a,b)==m2i=1maxi+byim2(mbi=1m(yiaxi))

上面两个公式是损失函数 L L L a a a b b b进行求偏导。当导数为0时,可以求得损失函数的最小值,即:
{ ∂ ∂ a L ( a , b ) = 0 ⇒ 2 m ( a ∑ i = 1 m x i 2 − ∑ i = 1 m ( y i − b ) x i ) = 0 ∂ ∂ b L ( a , b ) = 0 ⇒ 2 m ( m b − ∑ i = 1 m ( y i − a x i ) ) = 0 \begin{cases} &\frac{\partial}{\partial a}L(a,b) = 0 \rArr \frac{2}{m}(a\sum_{i=1}^m x_i^2 - \sum_{i=1}^m(y_i-b)x_i) = 0 \\ &\frac{\partial}{\partial b}L(a,b)=0 \rArr \frac{2}{m}(mb - \sum_{i=1}^m(y_i - ax_i)) = 0 \end{cases} { aL(a,b)=0m2(ai=1mxi2i=1m(yib)xi)=0bL(a,b)=0

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值