Spark集群的搭建及测试

1、下载spark安装包

        下面我提供我使用的1.6.3版本的spark安装包。
        链接:https://pan.baidu.com/s/14X12wjnvgX1o8v4qTFSccA
        提取码:1432

2、解压、改名

        把文件放置到CentOs上,使用命令tar -zxvf spark-1.6.3-bin-hadoop2.6.tgz解压下载的压缩包,然后通过命令mv spark-1.6.3-bin-hadoop2.6 spark-1.6.3把刚刚解压出来的文件夹进行改名操作。操作成功后,如下图:
        在这里插入图片描述

3、修改配置文件

  进入spark安装包的conf目录,使用mv命令将spark-env.sh.template改名为spark-env.sh。改名成功后进入spark-env.sh文件。配置如下:

    SPARK_MASTER_IP=node01
    SPARK_MASTER_PORT=7077
    SPARK_MASTER_WEBUI_PORT=8080
    SPARK_WORKER_CORES=3
    SPARK_WORKER_MEMORY=2g
    SPARK_WORKER_PORT=7078
    SPARK_WORKER_WEBUI_PORT=8081
    SPARK_WORKER_INSTANCES=1
    SPARK_WORKER_DIR=/opt/software/spark/spark-1.6.3/work
    HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

  在这里插入图片描述
  配置完spark-nev.sh之后,还需要配置一个slaves文件,在slaves里面配置spark的worker节点。
  在这里插入图片描述

4、将配置好的安装包同步到其他节点

  进入spark安装包外,直接使用scp命令将配置好的安装包直接推送到其他节点。
  scp -r spark-1.6.3 node02:`pwd`
  scp -r spark-1.6.3 node03:`pwd`
  scp -r spark-1.6.3 node04:`pwd`

5、修改启动命令

        为了避免命令冲突,我们在配置环境变量前应先进入sbin目录下,使用mv start-all.sh start-spark.sh将启动命令start-all.sh更改为start-spark.sh

6、配置环境变量

        通过vim ~/.bashrc命令可以在用户环境变量中设置spark的环境变量。如下图:
        
在这里插入图片描述

7、启动集群

        在node01节点通过命令start-spark.sh启动spark集群。
在这里插入图片描述
        启动之后可以通过node01:8080在web页面查看效果,如下图:
在这里插入图片描述

8、提交测试

  把Application提交到集群中运行。这里运行求π的算子。这里运行命令spark-submit --master spark://node01:7077 --class org.apache.spark.examples.SparkPi /opt/software/spark/spark-1.6.3/lib/spark-examples-1.6.3-hadoop2.6.0.jar运行结果如图:
在这里插入图片描述

9、高可用的Spark集群搭建

  因为搭建的这个集群只有一个Master节点,万一这个节点由于某些原因意外死亡,那么整个集群就瘫痪了。这是我们不愿意看到的,所以我们可以搭建一个高可用的Spark集群,给Master找一个备用节点。搭建步骤请查阅《高可用的Spark集群搭建》。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值