最小二乘法

最小二乘法

一、“最小二乘”命名的由来

最小二乘法是基于均方差最小化进行模型求解的方法,他试图找到一条直线,使所有样本到直线上的欧式距离之和最小。

  • 所谓的均方差最小化,用公式表达如下:
    J = a r g m i n ∑ i = 1 m ( f ( x i ) − y i ) 2 J=argmin\sum_{i=1}^{m}(f(x_i)-y_i)^2 J=argmini=1m(f(xi)yi)2
    其中, y i y_i yi是精确值,由 f ( x i ) f(x_i) f(xi)求得的 y y y是估计值
  • 最小二乘法中的二乘平方的意思,所以最小二乘法又可叫最小平方法

二、公式推导

最小二乘法的本质思想是使均方差最小,从而求得真值,即 ∑ i = 1 m ( y − y i ) 2 最 小 ⇒ 真 值 y \sum_{i=1}^{m}(y-y_i)^2最小\Rightarrow 真值y i=1m(yyi)2y这是一个二次函数,对其求导,导数为0时取得最小值 令 d d y ∑ i = 1 m ( y − y i ) 2 = 0 ⇒ y 令\frac {d} {dy}\sum_{i=1}^{m}(y-y_i)^2=0\Rightarrow y dydi=1m(yyi)2=0y

三、线性回归

在这里插入图片描述
说到最小二乘法,就不得不说一下机器学习中的线性回归了。因为在线性回归中,我们用“最小二乘法”来拟合曲线
讲到线性回归,就要说一下线性模型(因为线性回归中“回归”的就是线性模型)。线性模型的基本形式如下: f ( x ) = w T x + b f(x)=w^Tx+b f(x)=wTx+b我们用最小二乘法来求解线性回归问题实际上就是求解出线性模型公式中的参数 w , b w,b w,b

线性回归又分单元线性回归和多元线性回归。接下来将分别讲到这两种线性回归。

  • 单元线性回归
    数据集D中有m个样本,每个样本只有1个属性
    (1)如何确定 w , b w,b w,b ( w ∗ , b ∗ ) = a r g m i n ( w , b ) ∑ i = 1 m ( f ( x i ) − y i ) 2 (w^*,b^*)=argmin_{(w,b)}\sum_{i=1}^{m}(f(x_i)-y_i)^2 (w,b)=argmin(w,b)i=1m(f(xi)yi)2思路:使得均方误差(欧式距离)最小
    基于均方差最小化进行模型求解的方法:最小二乘法(试图找到一条直线,使所有样本到直线上的欧式距离之和最小)
    (2)最小二乘法具体做法: d d w ∑ i = 1 m ( y i − w x i − b ) 2 = 0 ⇒ w \frac {d} {dw}\sum_{i=1}^{m}(y_i-wx_i-b)^2=0\Rightarrow w dwdi=1m(yiwxib)2=0w d d b ∑ i = 1 m ( y i − w x i − b ) 2 = 0 ⇒ b \frac {d} {db}\sum_{i=1}^{m}(y_i-wx_i-b)^2=0\Rightarrow b dbdi=1m(yiwxib)2=0b
  • 多元线性回归
    数据集D中有m个样本,每个样本都有d个属性 f ( x i ) = w T x i + b f(x_i)=w^Tx_i+b f(xi)=wTxi+b 令 X = ( x 11 x 12 ⋯ x 1 d 1 x 21 x 22 ⋯ x 2 d 1 ⋮ ⋮ ⋱ ⋮ x m 1 x m 2 ⋯ x m d 1 ) = ( x 1 T 1 x 2 T 1 ⋮ ⋮ x m T 1 ) , w ^ = ( w b ) , y = ( y 1 y 2 ⋮ y m ) 令X=\left( \begin{matrix} x_{11} & x_{12} & \cdots & x_{1d} & 1 \\ x_{21} & x_{22} & \cdots & x_{2d} & 1 \\ \vdots & \vdots & \ddots & \vdots \\ x_{m1} & x_{m2} & \cdots & x_{md} & 1 \\ \end{matrix} \right) =\left( \begin{matrix} x_1^T & 1 \\ x_2^T & 1 \\ \vdots & \vdots \\ x_m^T & 1 \\ \end{matrix} \right) , \hat{w}=\left( \begin{matrix} w \\ b \\ \end{matrix} \right) , y=\left( \begin{matrix} y_1 \\ y_2 \\ \vdots \\ y_m \\ \end{matrix} \right) X=x11x21xm1x12x22xm2x1dx2dxmd111=x1Tx2TxmT111w^=(wb)y=y1y2ym y = X w ^ y=X\hat{w} y=Xw^
    (1)如何确定 w ^ \hat{w} w^ w ^ = a r g m i n w ^ ( y − X w ^ ) T ( y − X w ^ ) \hat{w}=argmin_{\hat{w}}(y-X\hat{w})^T(y-X\hat{w}) w^=argminw^(yXw^)T(yXw^)
    (2)最小二乘法的具体做法:
    令 d E w ^ d w ^ = 2 X T ( X w ^ − y ) = 0 令\frac {dE_{\hat{w}}} {d\hat{w}}=2X^T(X\hat{w}-y)=0 dw^dEw^=2XT(Xw^y)=0
    ⇒ w ∗ ^ = ( X T X ) − 1 X T y \Rightarrow \hat{w*}=(X^TX)^{-1}X^Ty w^=(XTX)1XTy
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值