开始spark之旅啦~~~
在开始之前,我们要先搞清楚,什么是spark,我们为什么要学spark,有什么特点,然后整体了解整体spark框架模块。
好了,我们开始吧!
先给出官方地址:spark官网,学习资料很详细,对于学习者很友好
Apache Spark官方地址
1. 什么是spark
官方定义:
Apache Spark是用于大规模数据(large-scala data)处理的统一(unified)分析引擎。
Spark 最早源于一篇论文 Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing,该论文是由加州大学柏克莱分校的 Matei Zaharia 等 人发表的。论文中提出了一种弹性分布式数据