Linux下搭建spark集群开发环境

4 篇文章 0 订阅
1 篇文章 0 订阅

之前在windows下搭建了一个spark的开发环境,但是后来发现如果想要搞spark streaming的例子的话在Linux下使用更方便,于是在centos7下面搭建一下spark开发环境,记录以做备忘之用。

1 .首先去spark官网下载相关软件,我这里用的是spark2.1.0版本http://spark.apache.org/downloads.html,对应的hadoop版本是2.7.0

2 .
这里写图片描述 .

3 .之后利用XSheel5将下载的压缩包传递到linux的主节点的opt目录下,这里我的主节点的ip为192.168.70.100这里写图片描述

4 .之后切换到opt目录下,用tar -zxvf命令进行解压缩,解压缩后得到去掉后缀的文件夹这里写图片描述

5 .之后进入 vim /etc/profile,修改配置文件,添加spark的相关内容,见下图,之后退出用source /etc/profile进行保存
这里写图片描述

6 .接下来修改之前解压缩目录下的conf下的spark-env.sh文件,通过cp命令复制一下模板
这里写图片描述

7 .之后通过vim 进入,在末尾添加这些东西见下图,最后一个是主节点的ip地址,根据实际情况改成自己的
这里写图片描述

8 .在这之前先在任何一个位置输入spark-shell,测试一下环境变量是否配置成功,如果出现下面这个图表明成功
这里写图片描述

9 .接下来修改spark下的conf下面的slaves文件,添加子节点的ip地址,如果这里没有这个文件,可以通过cp 命令进行复制slaves模板得到,我这里有三个子节点,根据自己的实际情况进行修改即可这里写图片描述

10 .将上面这个保存,到此主节点的spark的相关配置已经完成,接下来只需要将该配置分发到其他子节点即可,之前已经配置了免密登录,如果这里有问题,可以参考我之前写的免密登录的相关内容,我这里有三个子节点,全部拷贝到相同目录下即可
这里写图片描述

11 .之后先启动hadoop,分别调用start-dfs.sh和start-yarn.sh,之后进入spark的sbin目录启动start-master.sh和start-slaves.sh,启动完毕后在主节点和子节点分别调用jps查看进程如下图
这里写图片描述
这里写图片描述

12 .之后登录8080查看spark的管理界面,出现下图说明集群搭建成功暂时告一段落,这里根据自己的主节点的ip地址进行修改即可。
这里写图片描述

13 .接下里就可以进行实操了,如果搭建过程有什么问题可以联系我。。。。

  • 4
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

梦岚如雪

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值