spark安装,单节点spark,spark standalone

今天来说说如何部署分布式的 Spark 集群,在本篇文章中,我主要是介绍如何部署Standalone模式。

一、修改配置文件

1、将$SPARK_HOME/conf/spark-env.sh.template文件复制一份到spark-env.sh,并作以下修改(可选):

export SCALA_HOME=/export1/spark/scala-2.10.3
export HADOOP_HOME=/home/q/hadoop-2.2.0
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop


SPARK_WORKER_INSTANCES=3
SPARK_MASTER_PORT=8081
SPARK_MASTER_WEBUI_PORT=8090(这个默认端口是8080)
SPARK_WORKER_PORT=8091
SPARK_MASTER_IP=192.168.24.72
SPARK_WORKER_DIR=/export1/spark/worker

2、在$SPARK_HOME/conf目录下新建slaves文件,这个是worker节点,每行一个节点:

worker1
worker2
worker3

二、打包$SPARK_HOME目录下的文件,并分发到各个子节点

[wyp@master spark-0.9.1]$ tar -zcf spark-0.9.1.tar.gz spark-0.9.1
[wyp@master spark-0.9.1]$ scp spark-0.9.1.tar.gz worker1:/export1/spark
[wyp@master spark-0.9.1]$ scp spark-0.9.1.tar.gz worker2:/export1/spark
[wyp@master spark-0.9.1]$ scp spark-0.9.1.tar.gz worker3:/export1/spark

然后在worker1、worker2和worker3上的export1/spark目录下解压刚刚发过来的spark-0.9.1.tar.gz。

spark-0.9.1需要用到scala-2.10.3,所以你需要在Spark所有节点上安装好:
[wyp@master spark]$ wget http://www.scala-lang.org/files/archive/scala-2.10.3.tgz
[wyp@master spark]$ tar -zxf scala-2.10.3.tgz
[wyp@master spark]$ export SCALA_HOME=/export1/spark/scala-2.10.3

三、启动master和worker节点

如果你的master机器可以ssh登录到worker1、worker2和worker3,则可以用下面的脚本启动Spark master和worker节点:

[wyp@master spark-0.9.1]$ ./sbin/start-all.sh

然后可以在master:8090下看到以下页面:

spark

Spark web UI

如果你用./sbin/start-all.sh无法正常启动相关的进程,可以在$SPARK_HOME/logs目录下查看相关的错误信息。其实,你还可以像Hadoop一样单独启动相关的进程,在master节点上运行下面的命令:
[wyp@master spark-0.9.1]$ ./sbin/start-master.sh

然后在worker1、worker2和worker3上运行下面的命令:

[wyp@master spark-0.9.1]$ ./sbin/start-slave.sh 3 spark://192.168.24.72:8081 --webui-port 8093

注意上面的端口和$SPARK_HOME/conf/spark-env.sh配置文件要一致。


原文地址:

http://www.tuicool.com/articles/RBjMfu

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值