机器学习-大规模机器学习

一、随机梯度下降法

批量梯度下降法每次迭代求和要遍历完全部样本。每次都要同时考虑所有的训练样本,对于海量数据集,处理起来就很困难。
在这里插入图片描述
针对单个样本重新定义cost函数:
在这里插入图片描述
随机梯度下降法:

  1. 随机打乱所有数据集(重新随机排列)(标准预处理过程);
  2. 对所有样本进行遍历,每遍历一个样本就进行梯度下降。
    在这里插入图片描述
    在这里插入图片描述

总的来看,参数是朝着全局最小化的方向移动的,整个过程还是以随机迂回的路径朝着全局最小值前进,相比于普通梯度下降,随机梯度下降的收敛形式是不同的,它所做的是连续不断在某个区域中朝着全局最小值方向徘徊。

二、Mini-Batch梯度下降法

  1. 普通梯度下降:每次迭代都要用到所有的m个样本;
  2. 随机梯度下降:每次迭代只需用到一个样本;
  3. Mini-Batch梯度下降:它是介于上述两者之间,每次迭代会使用b个样本(b是称为Mini-Batch大小的参数,通常b的范围2-100)。

在这里插入图片描述
判断随机梯度下降是否收敛

为了检查随机梯度下降是否收敛,要做的是每1000次迭代,就画出前一步中所计算出的代价函数(更新θ前),把这前1000个样本的代价函数的平均值画出来,通过观察所画的图,就能检查出随机梯度下降法是否在收敛。

学习速率α
通常不变,但也有随着时间变化逐渐减小,如在这里插入图片描述

三、在线学习机制

适用于多样本、连续数据流。
样本一般只使用一次,可适应用户变化的偏好。
在这里插入图片描述
案例二:点击率预测学习问题(CTR)

四、减少映射和数据并行

根据MapReduce的思想,把训练集分割成不同的子集,分配给不同机器进行并行处理:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值