吴恩达机器学习笔记之大规模机器学习

学习大数据集:

假如我们有非常多的数据,假如说一亿个数据来训练我们的模型,那么我们的计算代价是非常大的。为了更好的解决这个问题,我们首先想的是我们有没有必要用这么多的数据,我们前面已经提到过可以画出学习曲线,看我们的模型是否存在高偏差或者高方差的问题。

如上图第一幅图所示:我们知道我们的模型存在高方差的问题,那么我们可以采取用更多的数据训练模型来解决,但是如果我们的模型存在高偏差的问题,那么我们完全没有必要用更多的数据进行训练,因为这样起不到很大的作用。

我们接下来会介绍两种用于大规模机器学习的两种方法,用来提高学习速度,一种叫做随机梯度下降;另一种叫做减少映射。

随机梯度下降(Stochastic Gradient Descent ):

在最开始介绍梯度下降的时候我们知道,我们的梯度下降方法也可以叫做批量梯度下降 。但是这样的话,当数据量非常大时,计算代价是非常昂贵的。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值