梯度下降算法原理讲解——机器学习

目录

1. 概述:

2. 梯度下降算法:

2.1 场景假设 :

2.11 \alpha参数

2.12 实例:


1. 概述:

梯度下降在机器学习的运用非常的广泛,它的主要目的就是找到目标函数的最小值,有些时候是局部的最小值使得局部能够达到收敛。

本文从下山这个实例出发简述一下梯度下降算法的思想。

2. 梯度下降算法:

2.1 场景假设 :

我们将梯度下降算法想象成我们现在就在山顶上然后选择自己要下山的方向,我们希望我们能够早点下山就是每次沿着最陡的路径往下下山,到达这个点以后使用同样的方法找到下降最多的方向,如图所示:

公式如下: 

\theta j:=\theta j-\alpha \frac{\partial }{\partial \theta} J(\theta0,\theta1)

根据大佬的博客

Θ1=Θ0+α▽J(Θ) 其中▽J(Θ)是梯度,\alpha是步长。

2.11 \alpha参数

\alpha就是学习率和步长,我们通过\alpha来控制每一步走的距离,不要太大或者是太小。太大的话会错过最低点,太小的话会下降的太慢。

2.12 实例:

我们使用一个单变量函数进行梯度下降,我们假设有这样一个函数;

J(\theta):=\theta^{2}

然后我们对它求导

J'(\theta)=2*\theta

我们初始这个函数的\theta值为1。

那么J(\theta)=1.

在这里我们设置\alpha的值为0.4

那么根据我们的梯度下降算法就会有如下的迭代过程:

\theta^{0}=1\\ \theta^{1}=1-0.4*2=0.2\\ \theta^{2}=0.2-0.4*0.4=0.04\\ \theta^{3}=0.04-0.4*0.08=0.008\\ ....

如图所示:

 

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值