机器学习1:梯度下降(Gradient Descent)

本文介绍了机器学习中的梯度下降法,解释了如何通过求解损失函数的偏导数来更新权重参数。讨论了学习率的影响,包括过大可能导致错过最优解,过小则可能使优化过程缓慢。同时提到了过拟合问题,以及解决方法如调整学习率、使用适应性学习率算法和特征缩放等,以提高模型泛化能力。
摘要由CSDN通过智能技术生成

分别求解损失函数L(w,b)wb的偏导数,对于w,当偏导数绝对值较大时,w取值移动较大,反之较小,通过不断迭代,在偏导数绝对值接近于0时,移动值也趋近于0,相应的最小值被找到。

η选取一个常数参数,前面的负号表示偏导数为负数时(即梯度下降时),w向增大的地方移动。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值