深度学习基础_梯度下降法

梯度下降法是一种致力于找到函数极值点的算法。

所谓“学习”便是改进模型参数,以便通过大量训练步骤将损失最小化。

将梯度下降法应用于寻找损失函数的极值点便构成了依据输入数据的模型学习。

梯度的输出是一个由若干偏导数构成的向量,它的每个分量对应于函数对输入向量的相应分量的偏导:
在这里插入图片描述梯度的输出向量表明了在每个位置损失函数增长最快的方向,可将它视为表示了在函数的每个位置向哪个方向移动函数值
可以增长。

在这里插入图片描述
可以将梯度下降简单理解为寻找函数最小值得过程,这个过程大概可以理解为如上图所示,在函数上随机取一个点,然后向函数的导数为零得方向移动

在这里插入图片描述
如何处理上面这种有多个导数为零的点呢?它的过程是随机初始化多个点,在函数上移动,找到倒数为零的点,然后进行比较,找到最小值的点。移动的距离称为学习速率,学习速率不能太小或太大,如果太大,可能会在极值点附近来回跳动,太小需要迭代很多次,tensorflow中adam算法的默认学习速率为0.01

三个变量的模型

在这里插入图片描述在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值