-
- 安装运行Spark
Spark本身是用Scala编写的,并在Java虚拟机(JVM)上运行,因此在您的笔记本或集群上运行Spark,您所需要的只是安装Java环境。如果您想要使用Python API,您还需要一个Python解释器(版本2.7或更高版本)。如果你想使用R,你需要在你的机器上安装R语言环境。
建议开始使用Spark: 在您的笔记本电脑上下载并安装Apache Spark。
-
-
- 下载Spark到本地
-
如果您想在本地下载并运行Spark,第一步是确保您的机器上安装了Java(可用Java),以及Python版本,如果您想使用Python的话。接着,打开Spark官方网站http://spark.apache.org/download