搭建spark完全分布式

安装spark

1.列表内容
spark下载:http://spark.apache.org/downloads.html
2.将spark进行解压:

 s100:/soft $>tar -zxvf spark-2.3.0-bin-hadoop2.7.tgz
 s100:/soft $> ln -s spark-2.3.0-bin-hadoop2.7 spark

3.配置环境变量

$> sudo nano /etc/environment

PATH = ':/soft/spark/bin:/soft/spark/sbin'
SPARK_HOME=/soft/spark
使配置生效: $> source /etc/environment

4.配置/spark/conf

 s100:/soft/spark/conf $> cp slaves.template slaves
 s100:/soft/spark/conf $> sudo nano slaves
在slaves文件下填上slave主机名:
s101
s102
s103

5.配置spark/sbin

 s100:/soft/spark/sbin $>mv start-all.sh start-spark-all.sh
 s100:/soft/spark/sbin $>mv stop-all.sh stop-spark-all.sh
原因:
如果集群中也配置HADOOP_HOME,那么在HADOOP_HOME/sbin目录下也有start-all.sh和stop-all.sh这两个文件,当你执行这两个文件,系统不知道是操作hadoop集群还是spark集群。修改后就不会冲突了,当然,不修改的话,你需要进入它们的sbin目录下执行这些文件,这肯定就不会发生冲突了。

6.配置集群

将以上配置分发到其他节点:s101,s102,s103

7.启动spark集群

s100:$> start-spark-all.sh
s100:$> jps
4064 Jps
3846 Master

8.webUI查看集群启动情况
这里写图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值