梯度下降算法(Gradient Descent, GD)

1.线性回归

图中有很多点,横轴代表人口,数轴代表利润,现在我们想找到一条线,来线性拟合这些点的趋势,如下图所示:
在这里插入图片描述
如何用梯度下降的算法来求线性回归呢,在求解之前我们需要了解损失函数:

2.损失函数

在这里插入图片描述
前一个y代表的是预测值,也就是红线上的点,后一个y代表的是真实值,也就是蓝色的点,式子就是预测值与真实值之差的平方和再累加的结果,例如:
在这里插入图片描述
图中绿色圈出来的部分,在同一横坐标下,预测值对应的红线上的点,真实值是蓝色的点,它们之间有误差,多个点误差的平方再累加起来就是损失函数结果。
θ0代表的就是图中红色直线的截距,θ1代表的是红色直线的斜率。所以前一个y预测值就可以用这两个变量表示为:
在这里插入图片描述
当θ0,θ1为何值时,损失函数的值最小(通俗理解也就是误差最小)

3.梯度

在这里插入图片描述
图中z轴代表的是损失函数的值,我们要求损失函数最小,也就是求这个曲面上最低的点。那哪个方向最快到达谷底呢?这个方向就是梯度

4.梯度下降

在单个变量中,假如我们求一个二阶曲线的最小值,这个最小值处的斜率代表了在这个点的最快的下降,也就是求导;同理,在多个变量中,我们想求一个曲面的最小值的话,也就是求偏导,而这里的偏导就是梯度。
对损失函数求偏导:
在这里插入图片描述

5.梯度下降算法的过程

在这里插入图片描述
梯度代表的是最快的方向,学习率代表的是我们走的步长,因为要求最小值,如果是下山的话,也就是要下到谷底,所以应该是现在的值减去梯度与学习率的乘积才是下一个最快下山的点的位置。
当损失函数的上一个值与现值的差值小于某一个极小值比如0.00000001时,便退出循环。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

paper more and more

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值