机器学习速成课程笔记5:降低损失 (Reducing Loss)-梯度下降法

微笑快速翻阅,快速学习

迭代方法图1(https://blog.csdn.net/qq_37791134/article/details/79779016)包含一个标题为“计算参数更新”的华而不实的绿框。现在,我们将用更实质的方法代替这种华而不实的算法。假设我们有时间和计算资源来计算 w1的所有可能值的损失。对于我们一直在研究的回归问题,所产生的损失与 w1的图形始终是凸形。换言之,图形始终是碗状图,如下所示:

                                                

                                                   

                                                                图 2. 回归问题产生的损失与权重图为凸形。

凸形问题只有一个最低点;即只存在一个斜率正好为 0 的位置。这个最小值就是损失函数收敛之处。

通过计算整个数据集中 w1每个可能值的损失函数来找到收敛点这种方法效率太低。我们来研究一种更好的机制,这种机制在机器学习领域非常热门,称为梯度下降法

梯度下降法的第一个阶段是为 w1选择一个起始值(起点)。起点并不重要;因此很多算法就直接将 w1 设为 0 或随机选择一个值。下图显示的是我们选择了一个稍大于 0 的起点:

                                

                                                                              图 3. 梯度下降法的起点。

然后,梯度下降法算法会计算损失曲线在起点处的梯度。简而言之,梯度是偏导数的矢量;它可以让您了解哪个方向距离目标“更近”或“更远”。请注意,损失相对于单个权重的梯度(如图 3 所示)就等于导数,那损失相对于多个权重的梯度等同于什么?请回答:————。我的答案:就是梯度咯。如果有其他答案的欢迎留言一起讨论。

---------------------------------------知识点分界线------------------------------------------------

插播知识点:详细了解偏导数和梯度。
       涉及机器学习领域的数学非常有趣,我们很高兴您点击了该链接来了解详情。不过请注意,TensorFlow 会为您处理所有的梯度计算过程,因此您其实不必理解此处提供的微积分知识。

偏导数

多变量函数指的是具有多个参数的函数,例如:

                                                                   

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值