hadoop-spark完全分布式集群搭建

本次采用的系统为centos7
hadoop版本为2.7.7
spark版本为2.1.1 链接:https://pan.baidu.com/s/1j4M21s6rURvl2uvZC_wxtQ
提取码:qwer
关于hadoop搭建请访问:Hadoop完全分布式集群搭建教程(一)

一、解压spark文件

我们同样把文件解压到根目录下的opt文件夹中

[root@localhost opt]# tar zxvf spark-2.1.1-bin-hadoop2.7.tgz 
#修改一下名称
[root@localhost opt]# mv spark-2.1.1-bin-hadoop2.7 spark-2.1.1

在这里插入图片描述

二、修改spark-env.sh文件

进入conf文件夹下,拷贝spark-env.sh.template

#进入路径
cd /opt/spark-2.1.1/conf
#拷贝文件
cp spark-env.sh.template spark-env.sh

在这里插入图片描述

#修改文件
vi spark-env.sh

加入以下内容
#配置java
#路径自己修改
export HADOOP_HOME=/opt/hadoop-2.7.7
#指定master的IP
#主机名自己修改
export SPARK_MASTER_HOST=master
#指定master的端口
export SPARK_MASTER_PORT=7077

在这里插入图片描述# 三、修改slaves文件

#拷贝文件
cp slaves.template slaves
#修改文件
vi slaves

在这里插入图片描述
加入节点名称

四、分发给各节点

#分发给slave1
scp -r /opt/spark-2.1.1 slave1:/opt/
#分发给slave2
scp -r /opt/spark-2.1.1 slave2:/opt/

路径需要按照自己的来

五、主节点配置环境

进入profile文件,添加以下代码
vi /etc/profile
修改后
source /etc/profile

export SPARK_HOME=/opt/spark-2.1.1
export PATH=$PATH:$SPARK_HOME/bin:$HADOOP_HOME/sbin

六、启动

退回到根目录下

[root@localhost spark-2.1.1]# sbin/start-all.sh

查看jps
主节点:
在这里插入图片描述
从节点
在这里插入图片描述

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

周粥粥ya

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值