机器学习 -- 梯度下降法(Ⅷ 随机梯度下降法)

这篇博客探讨了在大规模样本情况下,批量梯度下降法的效率问题,并介绍了随机梯度下降法作为改进策略。文章通过公式展示了随机梯度下降法如何每次仅使用一个样本进行迭代,并解释了其可能导致的非直线下降路径。为了提高精度,作者提出了η值随迭代次数减少的策略。随后,博客分别展示了手动编程实现和使用sklearn库的随机梯度下降法过程。
摘要由CSDN通过智能技术生成

之前这种梯度下降法又称为批量梯度下降法(Batch Gradient Descent)

        梯度下降法每次求梯度都需要将所有的样本代入进行运算,当样本的数量较大时,耗费的时间将会很多。为了改进,提出了随机梯度下降法。它采用的公式如下,即每次只取1个样本进行运算。由于是随机的,所以不能保证每次损失函数都能是下降的趋势。

        由于我们使用的是随机梯度下降法,所以导致我们的最终结果不会像批量梯度下降法一样准确的朝着一个方向运算,而是曲线行下降。这时候我们就希望,越到下面,η值相应减小,事运算次数变多,从而精确计算结果。此时我们可以考虑η = 1 / 迭代次数。但是这种实现可能有时候有问题,比如当循环次数比较少的时候η值下降的太快,故可以在分母上加上一个常数b缓解情况,防止初始时η下降太快,让分子也取常数a能使效果好点。(在此取经验值a = 5,b = 50)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值