linux下spark的python版本_《Spark数据分析:基于Python语言 》 —2.4 在Linux或Mac OS X上安装Spark...

2.4 在Linux或Mac OS X上安装Spark

Linux是最常用也是最简单的用于安装Spark的平台,Mac OS X次之。由于这两种平台都属于类UNIX系统,并且有类似的shell环境,所以在这两种平台上的安装步骤是类似的。下面的练习演示了如何在Linux的Ubuntu发行版上安装Spark,其实在其他Linux发行版或者Mac OS X上的安装步骤也是类似的(只是包管理器软件有所不同,比如yum)。按照如下步骤在Linux上安装Spark:

1)安装Java。一般安装JDK(Java Development Kit,Java开发工具包),它包含JRE(Java运行时引擎(Java Runtime Engine))以及用于构建和管理Java或Scala应用的工具。具体做法如下:

fc8a53946de302539a0f68d84a37b01f.png

在终端会话中运行java -version来测试安装结果。如果安装成功,你应该会看到如下所示的输出:

c563099ad70ada687dee252df3706920.png

在Mac OS里,安装Java的命令如下所示:

c3fafb8b6515baf05cf1e104368eb654.png

2)获取Spark。使用wget和适当的URL来下载Spark的发布版本。具体的下载地址可以在http://spark.apache.org/downloads.html上找到,如图2.2所示。虽然当你读到这里的时候,很有可能Spark已经发布了更新的版本,下面的例子展示的是2.2.0版本的下载。

c2424c46a0ae941e9fc971f0d50ccadd.png

3)解压Spark包。解压Spark正式版本包到一个共享目录中,比如/opt/spark:

fa5b8c656d00c84f465592bb0878b471.png

4)设置必要的环境变量。设置环境变量SPARK_HOME,并更新环境变量PATH,具体如下所示:

8c96fafeed79cd00b14826bb444af628.png

你可能希望这些设置长期有效(比如在Ubuntu实例上可以使用/etc/environment文件)。

5)测试安装结果。以本地模式,运行Spark内置的圆周率估算例程,测试Spark安装情况,如下所示:

ee966fbb52bd926dbe6253d5ad17a3c3.png

如果安装成功,你会在一大堆信息型的日志消息(本章稍后会介绍如何减少这些日志输出的量)的输出中找到如下输出:

46a784bc9d51c8e77aaa3041323cddb4.png

pyspark和spark-shell是Spark提供的交互式shell,你可以在终端里也对它们进行测试。

恭喜!你已经在Linux上成功地安装并测试了Spark。是不是很简单?

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值