Centos7搭建spark(3节点)

集群环境

master:192.168.230.10
slave1:192.168.230.11
slave2:192.168.230.12

运行环境

spark:2.0.2
scala:2.11.4

安装scala

1.master节点下,在/usr/local/src/scala目录下解压:

tar zxvf scala-2.12.4.tgz

2.在~/.bashrc配置环境变量SCALA_HOME
SCALA_HOME=/usr/local/src/scala/scala-2.11.4
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$SCALA_HOME/bin

3.将scala文件夹远程复制到slave1和slave2:

[root@master src]# scp -r scala root@slave1:/usr/local/src
[root@master src]# scp -r scala root@slave2:/usr/local/src

安装spark

1.master节点下,在/usr/local/src/spark目录下解压:

[root@master spark]# tar zxvf scala-2.12.4.tgz

2.修改spark配置文件
在/usr/local/src/spark/spark-2.0.2-bin-hadoop2.6/conf目录下

[root@master conf]# vi spark-env.sh

export JAVA_HOME=/usr/local/src/java/jdk1.8.0_172
export SCALA_HOME=/usr/local/src/scala/scala-2.11.4
export HADOOP_HOME=/usr/local/src/hadoop/hadoop-2.6.5
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
SPARK_MASTER_IP=master
SPARK_LOCAL_DIRS=/usr/local/src/spark/spark-2.0.2-bin-hadoop2.6

[root@master conf]# vi slaves
slave1
slave2

3.将安装包远程分发到slave1和slave2:

[root@master src]# scp -r spark root@slave1:/usr/local/src
[root@master src]# scp -r spark root@slave2:/usr/local/src

启动集群

在/usr/local/src/spark/spark-2.0.2-bin-hadoop2.6/sbin目录下

[root@master sbin]# ./start-all.sh

在这里插入图片描述slave1和slave下:


在这里插入图片描述
在这里插入图片描述

网页监控

master:8080


在这里插入图片描述

验证

1.本地模式

[root@master spark-2.0.2-bin-hadoop2.6]# ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master local examples/jars/spark-examples_2.11-2.0.2.jar

在这里插入图片描述

2.集群standalone

[root@master spark-2.0.2-bin-hadoop2.6]#  ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://192.168.230.10:7077 examples/jars/spark-examples_2.11-2.0.2.jar

这里的–master spark://192.168.230.10:7077,这个IP是在spark-env.sh配置的SPARK_MASTER_IP的地址 在这里插入图片描述
在这里插入图片描述3.on yarn cluster模式
首先需进入hadoop目录下,执行./start-all.sh,master节点下有ResourceManager、NameNode、SecondaryNameNode和Maser进程,slave1和slave2节点有DataNode、Worker和NodeManager进程,此时不需要启动spark集群。

[root@master spark-2.0.2-bin-hadoop2.6]# ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster examples/jars/spark-examples_2.11-2.0.2.jar

在这里插入图片描述在这里插入图片描述4.on yarn client模式

[root@master spark-2.0.2-bin-hadoop2.6]# ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-client examples/jars/spark-examples_2.11-2.0.2.jar

执行时报异常:
org.apache.spark.SparkException: Could not find CoarseGrainedScheduler.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值