大规模机器学习(随机梯度下降,在线学习,减少映射(map reduce),数据并行化)

1.对于三类梯度下降的算法可以参考这个链接的解释https://blog.csdn.net/uestc_c2_403/article/details/74910107





2.大规模机器学习(在线学习机制)

        试用这个情况的类型是:有连续的数据流(如果用户什么的很少的情况下,就不需要使用在线学习了);用户不太固定的情况(如果用户不太固定,那么对于他的推荐也是很不唯一的,需要临时变化,所以需要重新学习参数)

        这个在线学习和随机梯度下降的区别:

        (1)随机梯度下降,他的参数是一次次保持,然后基于上一次的参数去再进行学习的,只不过所用的样本不是唯一固定的。such as,在样本1上面学习到的参数是b,再将b这个参数作为样本2(不一定是按照顺序的,在进行随机梯度下降的时候,需要打乱一下顺序Shuffle)的初始参数,在2里面再进行更新。

        (2)对于基于用户的在线学习,每一个用户的参数都需要各自进行学习,之间的参数没有依赖关系,对于不同的用户,他的参数学习是不一样的(可以理解为相互独立)。

3.减少映射(map reduce)

        这个思想很重要,用来解决随机梯度下降不能解决的更大规模的问题。

        其实mapreduce就是并行化的处理思想,将比较独立的数据运算分配到多个核或者线程上面进行计算,最后再合并的而思想。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值