吴恩达机器学习笔记9-大规模机器学习

最强的机器学习方法:使用低偏差的算法和大量的数据

使用大量数据前先检查一下使用少量的数据行不行,也要通过训练集和验证集的cost图来判断是否需要继续增加数据

随机梯度下降

很多学习算法使用了梯度下降的算法。当m很大时,计算梯度就会变得很复杂,这种算法叫做批量梯度下降,每次考虑所有的样本。假如有3亿的数据,每次求梯度都会很慢。
随机梯度下降每次只考虑一个训练样本
1. 将所有数据打乱,将m个样本重新排列
2. 遍历每个样本,对所有参数进行梯度下降
实际上就是每次只学习一个样本

Mini-batch梯度下降

每次学一个batch,batch size一般在[10,100]范围内
Mini batch比随机梯度更快
额外的缺点是参数batch size,需要花时间来确定

SGD是否收敛

在训练第i个样本之前测试一下它的cost,最后把所有的cost画出来,观察是否在下降

在线学习

连续的数据流输入的时候

repeat forever
{
  Get (x,y) from user
  update parameters using (x,y)
}

它可以对用户的改变进行自动适配

Map Reduce

将数据划分为几个子集,分给每个计算机
假如有400个样本,在计算线性回归的梯度时每台计算机只计算梯度公式中求和的一部分,最后把4个部分和加起来求梯度

如果想要应用到其它算法上,应该看是否可以表示为训练样本的一个求和。

在同一台电脑的不同CPU上也可以实现并行

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值