李宏毅机器学习笔记-3 梯度下降(Gradient Descent)

3 Gradient Descent - 梯度下降


1 为什么要用 Gradient Descent

  • 首先让我们回顾一下机器学习的三部曲,

    1526779514205

    在 step 2 中,我们要定义一个 Loss Function,用来判断我们找出的函数的好坏。

    在 step 3 中,我们要挑出一个可以使得 Loss 函数值最小的一个函数,当做最好的函数。

  • 想一想我们以前是怎么求一个函数的最小值的,或许看一下就出来了,或者简单求个导。但是在神经网络中,我们面临的是一个参数可能上万个,百万个甚至更多的函数,显然我们需要更好的方法。

  • 而这个方法就是 Gradient Descent

2 Gradient Descent 怎么做

  • 首先我们要知道 梯度(Grad) 这个概念,梯度就是 一个函数增长最快的方向。而 Gradient Descent 就是沿着梯度的反方向,也就是下降得最快的方向前进,直至找到一个最小值(理论上来说可能只能找到极小值,但是经过一些变种,好像可以增大找到最小值的概率)。

  • 举个例子:

    1526780913875

    稍微解释一下就是:

    1. 先随机(或者其他更有效的方法)设置一个初始值 θ0 θ 0
    2. 算出 θ0 θ 0 上的梯度值 L(θ) ∇ L ( θ ) ;
    3. θ1=θ0ηL(θ) θ 1 = θ 0 − η ∇ L ( θ ) 。其中 η η 叫做 learning rate ,决定步长。
    4. 算出 θ1
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值