Machine Learning:Parameter Learning——Gradient Descent

Gradient Descent

当成本函数位于图中凹坑的最底部时,即当其值最小时,我们就成功了。
我们这样做的方法是采用成本函数的导数,切线的斜率是该点的导数,它将为我们提供一个方向,我们沿下降最陡的方向逐步降低成本函数,每步的大小由参数α(称为学习率)确定。
在这里插入图片描述

算法

repeat until convergence:
在这里插入图片描述
where j=0,1 represents the feature index number.

注意:同步更新

每次迭代时,应该同时更新参数θ1,θ2,…,θn,否则在计算偏导数时将出现错误。
在这里插入图片描述

Gradient Descent Intuition

假设只有一个θ1参数时

其迭代算法如下
在这里插入图片描述
无论导函数为多少,θ1最终会收敛到其最小值,如下图当导函数为负数时,θ1的值会增加,当导函数为正数时,θ1的值会减小。
在这里插入图片描述
另外,我们应该调整学习率α,过小或过大都不适宜。
在这里插入图片描述
因为最终的局部最优解导函数为0,所以尽管学习率α不变,在收敛过程中导函数会逐步变小,梯度下降会自动逐渐采取更小的步子以接近最优解。
在这里插入图片描述

Gradient Descent For Linear Regression

当专门用于线性回归时,可以得到以下等式
在这里插入图片描述
因为该方法着眼于每个步骤的整个训练集中的每个数据,称为批量梯度下降。因为此处为线性回归提出的优化问题只有一个全局最优,因此梯度下降总会收敛到全局最小值(学习率α不太大)
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序猿S先森丶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值