1,基于内存
2,cache的使用
3,pipline
1:All-In-One的解决方案
谈到Spark,大多数的人首先想到的是内存计算框架,计算速度很快等概念。但对于系统架构师或IT信息部门主管来说,更吸引其眼光的应该是Spark的All-In-One的解决方案。
除了核心的Spark Core Engine外,Spark提供了应用在不同场景上的处理工具:
应用于流式计算的Spark Streaming
应用于即席查询(Ad-hoc)的Spark SQL
应用于机器学习(数据挖掘)的MLlib
应用于图处理的GraphX
将R扩展成并行计算的SparkR
还有权衡精度和速度的查询引擎BlinkDB
Spark1.0.0已经在努力统一规划上面的各个组件,其基础就是RDD。随着Spark生态的完善和扩展,Spark将能应付各种大数据处理场景。这意味着采用Spark将减少人力和资金的投入,降低的系统的复杂性,减轻维护的工作量。