学习笔记-Large scale machine learning

本文介绍了如何处理大规模机器学习项目,重点讲解了随机梯度下降、小批量梯度下降、在线学习以及MapReduce和数据并行性在优化计算效率中的应用。探讨了在不同情况下,增加样本量对模型性能的影响,并提供了损失函数收敛的判断方法。
摘要由CSDN通过智能技术生成

终于来到了倒数第二周,这章的主要内容是怎样应对超大样本量的机器学习项目,例如训练集有500万个样本。
之前我们曾提到,有时候样本量的多少决定了一个模型的好坏,当样本量达到一定数量级时,应用不同算法获得的结果差不多。有句名言“最后获胜的人往往是那些拥有最多数据量的人,而不是那些拥有最好算法的人”
这里写图片描述
当然不断增多训练样本量不总是有效,我们需要有评价标准告诉我们在何种情况下,增大样本量会带来益处。对于下面的左图情况,增加样本量还会带来好处;但是右图的情况告诉我们再增加样本量也不会有帮助了,你或者可以考虑增加特征变量了。
这里写图片描述

1. Stochastic gradient descent

Stochastic gradient descent是梯度下降的一种特殊形式。
以我们之前学习过的应用在线性回归

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值