AI学习过程(5) 在大数据上进行机器学习

  1. 使用随机梯度下降和来在大数据上执行机器学习任务。
  2. 随机梯度下降与一般的梯度下降法的区别无非是把样本的m以循环的方式放置到计算每个梯度的外部而已。使用随机梯度下降方法1.不一定每一步都是在优化;2.不会直接收敛到最终最优点(全局或者局部,但实际上逻辑回归中只有一个最优),而是围绕最优点附件的一定区域内打转转,这个收敛尚可,也支持构建一个相当不错的算法。在使用随机梯度下降的时候,一般只执行一次整体循环(就把整个样本算一次就可),一般业界也执行1到10遍整个循环。随机梯度下降适用于所有的方法。
  3. Mini-Batch梯度下降。随机梯度下降使用Batch=1,梯度下降使用Batch=m,在Mini-Batch中,使用的Batch=1~100。在Mini-Batch梯度下降中,每个子循环使用Batch各样本对梯度进行更新,而外围则以每次Batch的步长进行循环。Mini-Batch梯度下降比随机梯度下降好处仅在于,他利用了现有函数库中向量化计算的并行部分以减少运算时间。随机梯度下降的每个1都是固定的,而Mini-Batch梯度下降100个1的一个Batch利用的资源要小于100。
  4. Online Learning 没有什么新奇的内容,只不过把每次获得的数据用于一个求解{成本和偏导数}的循环中,每个数据只执行一次,然后将这个数据抛弃。
  5. Map Reduce用于数据的并行处理。Map Reduce也没什新奇的地方,无非是把梯度下降的加和部分分解为多台并行的计算机进行计算,然后一起发送到服务器进行加和,求解梯度。在其他Map Reduce的相关应用中,Map Reduce是否能够成功应用取决于是否能将公式中的加和部分分解到分别的计算机进行计算。因此,当某个算法所依赖的函数库的确已经实现了分布式计算,那么就不必使用Map Reduce进行映射。Map Reduce的一个开源化工具是Hadoop
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值