Spark原理和使用场景的简述

今天老大谈到了Spark,说是计算速度比hadoop MapReduce快100倍,顿时惊讶,于是乎埋头google,主要想弄清楚两个问题 1 Spark怎么会那么快 2 Spark的适用场景。苦苦搜索,总得结果。
spark是对MapReduce计算模型的改进,可以说没有HDFS,MapReduce,就没有spark.尽管spark官网很少提到MapReduce.
[color=red]Spark可用于迭代,主要思想是内存计算,即将数据存到内存中,以提高迭代效率。[/color]
(我认为就是通过缓存数据的方式减少IO的消耗,从而提高了性能)
Spark可以将过程数据存在内存中(从文件中读取,或经过map处理的数据),方便其他模块重复调用。
相比hadoop MapReduce 主要的改进:
[color=red]1迭代运算,一次创建数据集。多次使用,减少了IO的开销。
2允许多种计算模型(包含map-reduce)
3 支持非OO式算法实现,对机器学习算法,图计算能力有很好的支持。[/color]

仔细研读下面的文章,就能理解我的总结
迭代式MapReduce框架介绍
[url]http://dongxicheng.org/mapreduce/iterative-mapreduce-intro/[/url]
传统MapReduce框架
[url]http://dongxicheng.org/mapreduce/traditional-mapreduce-framework/[/url]
选择Spark on Yarn的三个理由
[url] http://storage.it168.com/a2013/1123/1564/000001564111.shtml[/url]
注:迭代运算: 这里指对同一个数据集的多次使用
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值