spark 安装详细步骤

1.下载 spark 安装包

选择自己Hadoop对应的版本,不然会不兼容

spark下载链接
在这里插入图片描述

2.解压

tar -zvxf spark.2.3

3.删除安装包,修改解压后的文件名字

rm -rf  安装包名
mv spark-2.3.4-bin-hadoop2.7 spark

在这里插入图片描述
4. 配置文件
进入到spark 目录下

cd conf

在这里插入图片描述
(1).修改配置文件名字:

mv spark-env.sh.template     spark-env.sh
vim spark-env.sh

(2).并往里添加几行代码:

export SCALA_HOME=/usr/local/scala
export JAVA_HOME=/usr/local/java/jdk
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
SPARK_MASTER_IP=Master11                            #这里的Master11是我的主机名
SPARK_LOCAL_DIRS=/usr/local/spark
SPARK_DRIVER_MEMORY=1G

(3).保存并退出:wq

(4).编辑slaves

mv slaves.template slaves
vim slaves

里面的内容改成自己的子节点的名称:
在这里插入图片描述

5.远程把spark传给两个节点:
进入到Scala的上一级目录:
在这里插入图片描述

 scp -r spark/ Master2:/usr/local/
 scp -r spark/ Master3:/usr/local/

把Scala也一起传过去

 scp -r scala/ Master2:/usr/local/
 scp -r scala/ Master3:/usr/local/

6.进入到spark的sbin目录 启动集群

在这里插入图片描述

[root@Master11 spark]# cd sbin
[root@Master11 sbin]# ./start-all.sh

在这里插入图片描述

jps

主机上:有Master
在这里插入图片描述
节点上:有Worker

在这里插入图片描述
在这里插入图片描述

安装完毕!!

7.启动spark shell

进入spark bin 目录
在这里插入图片描述

[root@Master11 bin]# spark-shell

在这里插入图片描述

完美!!

  • 13
    点赞
  • 83
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值