用人话讲明白梯度下降Gradient Descent(以求解多元线性回归参数为例)


梯度下降算法在机器学习中出现频率特别高,是非常常用的优化算法。

本文借多元线性回归,用人话解释清楚梯度下降的原理和步骤。


1.梯度

梯度是什么呢?

我们还是从最简单的情况说起,对于一元函数来讲,梯度就是函数的导数

而对于多元函数而言,梯度是一个向量,也就是说,把求得的偏导数以向量的形式写出来,就是梯度

例如,我们在用人话讲明白线性回归LinearRegression一文中,求未知参数 β 0 \beta_{0} β0 β 1 \beta_{1} β1时,对损失函数求偏导,此时的梯度向量为 ( ∂ Q ∂ β 0 , ∂ Q ∂ β 1 ) T (\frac{∂Q}{∂\beta_{0}}, \frac{∂Q}{∂\beta_{1}})^T (β0Q,β1Q)T,其中:

∂ Q ∂ β 0 = 2 ∑ 1 n ( y i − β 0 ^ − β 1 ^ x i ) \frac{\partial Q}{\partial \beta_{0}}=2\sum_{1}^{n}{(y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}x_{i})} β0Q=21n(yiβ0^β1^xi)

∂ Q ∂ β 1 = 2 ∑ 1 n ( y i − β 0 ^ − β 1 ^ x i ) x i \frac{\partial Q}{\partial \beta_{1}}=2\sum_{1}^{n}{(y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}x_{i})x_{i}} β1Q=21n(yiβ0^β1^xi)xi

那篇文章中,因为一元线性回归中只有2个参数,因此令两个偏导数为0,能很容易求得 β 0 \beta_{0} β0 β 1 \beta_{1} β1的解。

但是,这种求导的方法在多元回归的参数求解中就不太实用了,为什么呢?


2.多元线性回归参数求解

多元线性回归方程的一般形式为:

y = β 0 + β 1 x 1 + β 2 x 2 + ⋯ + β p x p y={\beta}_{0}+{\beta}_{1} {x}_{\mathbf{1} }+{\beta}_{2} {x}_{2 }+\cdots+{\beta}_{p}{x}_{p} y=β0+β1x1+β2x2++βpxp
可以简写为矩阵形式(一般加粗表示矩阵或向量):
Y = X β \boldsymbol{Y}=\boldsymbol{X}\boldsymbol{\beta} Y=Xβ
其中, Y = [ y 1 y 2 ⋮ y n ] , X = [ 1 x 11 ⋯ x 1 p 1 x 21 ⋯ x 2 p ⋮ ⋮ ⋮ 1 x n 1 ⋯ x n p ] , β = [ β 0 β 1 ⋮ β p ] \boldsymbol{Y}=\left[\begin{array}{c}y_{1} \\ y_{2} \\ \vdots \\ y_{n}\end{array}\right], \boldsymbol{X}=\left[\begin{array}{cccc}1 & x_{11} & \cdots & x_{1 p} \\ 1 & x_{21} & \cdots & x_{2 p} \\ \vdots & \vdots & & \vdots \\ 1 & x_{n 1} & \cdots & x_{n p}\end{array}\right], \boldsymbol{\beta}=\left[\begin{array}{c}\beta_{0} \\ \beta_{1} \\ \vdots \\ \beta_{p}\end{array}\right] Y=y1y2yn,X=111x11x21xn1x1px2pxnp,β=β0β1

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值