1.如果想直接在python中使用Spark,也就是pySpark,那么 pip install pyspark是个不错的选择,但是前提是网络要比较稳定,这个大约二百多M,下载速度一般情况为几十k,大概四十分钟搞定。
2.Spark 的包中包含sql、Java(Scala)和 Python以及R的编译包,装好之后都可以方便的调用,所以你使用哪种语言来编写程序和怎么配置Spark没有区别。
-----------------------------------------------------------------------正文分割线--------------------------------------------------------------------------
什么是Spark
Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎 [1] 。现在形成一个高速发展应用广泛的生态系统。最初在2009年由加州大学伯克利分校的AMPLab开发,并于2010年成为Apache的开源项目之一。
Spark为我们提供了一个全面、统一的框架用于管理各种有着不同性质(文本数据、图表数据等)的数据集和数据源(批量数据或实时的流数据)的大数据处理的需求。
Windows下配置Spark
Spark的安装
下载地址为: