CentOS 7上安装Spark 2.2单机

Spark 2.2 需要运行在java环境,是不是任何版本都可以呢?不见得。之前在spark官网中看到需要运行环境是jdk8+,所以本人安装了jdk9,但是在JDK 9环境下没有安装成功,运行spark的 ./bin/spark-shell会报某个配置值丢失(估计是JDK版本的问题)。这次安装时,选择了jdk 8,安装后运行正常。下面简单记录一下安装的过程,比较简单。

1. 下载Jdk,http://www.oracle.com/technetwork/java/javase/downloads/index.html, 选择JDK 8 下载

2. 安装JDK 8。rpm -ivh jdk-8u151-linux-x64.rpm

3. 设置JAVA_HOME. 在/etc/profile最后增加如下两行

export JAVA_HOME=/usr/java/jdk1.8.0_151
export PATH=$PATH:$JAVA_HOME/bin

根据自己安装的实际目录去设置java home。

4. 下载Spark。 http://spark.apache.org/downloads.html

选择2.2.0版本,包类型选择默认的“Pre-built for Apache Hadoop 2.7 and later”

5. Copy至要安装的目录下,解压缩

tar zxvf spark-2.2.0-bin-hadoop2.7.tgz

6. 运行Spark

./sbin/start-master.sh

检查logs中的日志,是否有错误

7. 运行spark-shell

./bin/spark-shell

没有错误的话就安装成功了。

另外,如果是使用的Python的话,可以安装Python,然后运行./bin/pyspark。本人在Python 3.6.3上安装成功。以下是安装Python 3.6简单操作


8. 下载Python 3.6

https://www.python.org/ftp/python/3.6.3/Python-3.6.3.tar.xz

9. 安装xz解压工具

yum install xz

10. 解压安装包

xz -d Python-3.6.3.tar.xz
tar xvf Python-3.6.3.tar

11. 编译及安装可参见 不畏惧兄的博客 http://www.cnblogs.com/cloud-80808174-sea/p/6902934.html

其中需要注意的是,在Spark 2.10版本以后不再支持Python2.7,所以在安装完Python3.6.3后,需要把3.6.3设为默认,在不畏惧兄的博客中有写如何更改。







  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值