2.spark集群部署

2.spark集群部署

2.1.spark安装模式

 

(1)local(本地模式):常用于本地开发测试,本地还分为local单线程和local-cluster多线程

(2)standalone(集群模式):典型的Mater/slave模式,不过也能看出Master是有单点故障的;Spark支持ZooKeeper来实现 HA

(3)on yarn(集群模式): 运行在 yarn 资源管理器框架之上,由 yarn 负责资源管理,Spark 负责任务调度和计算

(4)on mesos(集群模式): 运行在 mesos 资源管理器框架之上,由 mesos 负责资源管理,Spark 负责任务调度和计算

  1. on cloud(集群模式):比如 AWS 的 EC2,使用这个模式能很方便的访问 Amazon的 S3;Spark 支持多种分布式存储系统:HDFS 和 S3

2.2.spark standalone模式安装

H201

Master

H202

worker

H203

worker

2.1 安装环境准备

Jdk1.8

Ssh证书

Hadoop(HDFS当做spark的持久化层)

2.2

解压缩

[hadoop@h201 ~]$ tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz 

2.3 配置文件修改

[hadoop@h201 ~]$ cd spark-2.1.1-bin-hadoop2.7/conf/

[hadoop@h201 conf]$ cp spark-env.sh.template spark-env.sh

[hadoop@h201 conf]$ vi spark-env.sh

添加

export SPARK_MASTER_HOST=h201

export SPARK_MASTER_PORT=7077

export JAVA_HOME=/usr/jdk1.8.0_131

2.4 配置slaves

[hadoop@h201 conf]$ vi slaves

添加:

h202

h203

2.5 同步到其他节点

[hadoop@h201 ~]$ scp -r spark-2.1.1-bin-hadoop2.7 h202:/home/hadoop/

[hadoop@h201 ~]$ scp -r spark-2.1.1-bin-hadoop2.7 h203:/home/hadoop/

2.6 从节点修改

[hadoop@h202 conf]$ vi spark-env.sh

export SPARK_LOCAL_IP=h202

[hadoop@h203 conf]$ vi spark-env.sh

export SPARK_LOCAL_IP=h203

2.7 启动集群

[hadoop@h201 spark-2.1.1-bin-hadoop2.7]$ sbin/start-all.sh

2.8 验证

主节点

[hadoop@h201 spark-2.1.1-bin-hadoop2.7]$ jps

32164 Master

从节点

[hadoop@h202 ~]$ jps

31605 Worker

浏览器

http://192.168.8.201:8080

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
以下是Spark 3.x集群部署的步骤: 1. 下载Spark安装包: ```shell wget https://archive.apache.org/dist/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz ``` 2. 解压安装Spark: ```shell tar -zxvf spark-3.1.2-bin-hadoop3.2.tgz -C /opt mv /opt/spark-3.1.2-bin-hadoop3.2/ /opt/spark ``` 3. 配置Spark集群: - 在每个节点上,编辑Spark配置文件`/opt/spark/conf/spark-env.sh`,设置以下环境变量: ```shell export SPARK_HOME=/opt/spark export JAVA_HOME=/path/to/java export HADOOP_HOME=/path/to/hadoop export SPARK_MASTER_HOST=<master-node-ip> export SPARK_MASTER_PORT=7077 export SPARK_WORKER_CORES=2 export SPARK_WORKER_MEMORY=2g ``` 其中,`<master-node-ip>`是Spark主节点的IP地址。 - 在Spark主节点上,编辑`/opt/spark/conf/slaves`文件,将所有工作节点的IP地址添加到文件中,每行一个IP地址。 4. 启动Spark集群: - 在Spark主节点上,启动Spark主节点: ```shell /opt/spark/sbin/start-master.sh ``` - 在每个工作节点上,启动Spark工作节点: ```shell /opt/spark/sbin/start-worker.sh spark://<master-node-ip>:7077 ``` 其中,`<master-node-ip>`是Spark主节点的IP地址。 5. 验证Spark集群部署: - 在浏览器中访问Spark主节点的Web界面:`http://<master-node-ip>:8080`,确认Spark主节点和工作节点都已成功启动。 - 在Spark主节点上,运行Spark Shell进行测试: ```shell /opt/spark/bin/spark-shell --master spark://<master-node-ip>:7077 ``` 确认Spark Shell能够连接到Spark集群并正常工作。 以上是Spark 3.x集群部署的步骤。请根据实际情况进行配置和操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值