机器学习笔记_李宏毅_P5-P7_Gradient Descent


课程视频

Gradient Descent

最小化损失函数时采用的Gradient Descent方法

在这里插入图片描述

Gradient Descent方法计算过程

在这里插入图片描述

Gradient Descent的三个tips

方法一:Tuning your learning rates

每隔几个epoch就降低一些learning rate
一开始,我们离目标很远,所以我们使用了较大的learning rate
经过几个epochs,我们接近了目标,所以我们降低了learning rate
在这里插入图片描述
给不同的参数设置不同的learning rate

Adagrad

为不同参数划分不同的learning rate

在这里插入图片描述

计算过程

在这里插入图片描述

化简结果

在这里插入图片描述

是否觉得矛盾?

在这里插入图片描述

在只有一个参数时,微分值可以代表距离最低点的距离

在这里插入图片描述

在多个参数时,微分值不可以代表距离最低点的距离

在这里插入图片描述

the best step is

在这里插入图片描述

方法二:Stochastic Gradient Descent

Stochastic Gradient Descent

在这里插入图片描述

在Gradient Descent 中,我们计算所有examples后再更新参数

在这里插入图片描述

在Stochastic Gradient Descent 中,每计算一个example则更新一次参数

在这里插入图片描述

方法二:Feature Scaling

让不同的特征具有相同的缩放程度

在这里插入图片描述

特征值 x 1 x_1 x1 x 2 x_2 x2差别很大,如果采用相同的 w 1 w_1 w1 w 2 w_2 w2,要走很多步才能到达最低点

在这里插入图片描述

将特征值缩放后,则无论从哪里开始,都能比较快的走到最低点

在这里插入图片描述

举个例子:此时不同的特征值就缩放成‘同等程度’

在这里插入图片描述

源代码

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值