随机梯度下降(SGD),批量梯度下降(BGD)

损失函数图如下(不是严格的凸函数):
在这里插入图片描述
批量梯度下降:每次迭代更新参数取全部的训练数据,对于每轮迭代每一个参数的更新也取全部数据。
随机梯度下降:每次迭代不取全量数据,对于每轮迭代每个参数的更新只取一个样本进行更新。
批量梯度下降有两个不足:1 训练速度慢,因为每次迭代更新参数都要遍历一遍数据的梯度,这是很费时的。2 不一定能走到全局最优点,有可能落在局部最优点就卡住了,停止迭代。
随机梯度下降解决了BGD的两个不足:1 训练速度快,每次迭代不取全量数据,对于每轮迭代每个参数的更新只取一个样本进行更新。对于凸函数损失函数,这样虽然精度没有BGD高,但最终也会走到最低点的附近。每次迭代的速度快了非常多,但要迭代的次数会比BGD多,但整体收敛的速度比BGD快很多。2 能脱离局部最优点,最终来到全局最优点的附近。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值