Spark集群部署2.X

 

Spark部署

 

 

原理

 

Spark本身是Master/Slaves结构的,有一个中心节点(Master),Master负责Spark集群的资源调度和分配。其余的是Worker。Worker管理单个节点上的资源状况。这里说的资源主要指CPU、内存,当然也包括disk IO,网络IO等。在生产环境下,由于Spark集群是Master/Slaves结构的,所以一定存在单点故障。就是说Master易出现故障。

如果Master出现故障集群将无法继续服务,这是无法接受的。所以生产环境下,都是使用zookeeper做keeplived高可用。

 

部署情况:

 

192.168.200.243 nobida243 主节点

192.168.200.244 nobida244 从节点

部署位置:/opt

 

1、jdk-1.7安装

 

Nobida243操作:yum remove java-*

tar -zxvf jdk-7u55-linux-x64.gz #安装jdk包

export JAVA_HOME=/opt/jdk1.7.0_55 #环境变量添加

export PATH=$JAVA_HOME/bin:$PATH #执行变量

source /etc/profile #配置立即生效 

[root@nobida243 jdk]# java -version

java version "1.7.0_55"

Java(TM) SE Runtime Environment (build 1.7.0_55-b13)

Java HotSpot(

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是Spark 3.x集群部署的步骤: 1. 下载Spark安装包: ```shell wget https://archive.apache.org/dist/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz ``` 2. 解压安装Spark: ```shell tar -zxvf spark-3.1.2-bin-hadoop3.2.tgz -C /opt mv /opt/spark-3.1.2-bin-hadoop3.2/ /opt/spark ``` 3. 配置Spark集群: - 在每个节点上,编辑Spark配置文件`/opt/spark/conf/spark-env.sh`,设置以下环境变量: ```shell export SPARK_HOME=/opt/spark export JAVA_HOME=/path/to/java export HADOOP_HOME=/path/to/hadoop export SPARK_MASTER_HOST=<master-node-ip> export SPARK_MASTER_PORT=7077 export SPARK_WORKER_CORES=2 export SPARK_WORKER_MEMORY=2g ``` 其中,`<master-node-ip>`是Spark主节点的IP地址。 - 在Spark主节点上,编辑`/opt/spark/conf/slaves`文件,将所有工作节点的IP地址添加到文件中,每行一个IP地址。 4. 启动Spark集群: - 在Spark主节点上,启动Spark主节点: ```shell /opt/spark/sbin/start-master.sh ``` - 在每个工作节点上,启动Spark工作节点: ```shell /opt/spark/sbin/start-worker.sh spark://<master-node-ip>:7077 ``` 其中,`<master-node-ip>`是Spark主节点的IP地址。 5. 验证Spark集群部署: - 在浏览器中访问Spark主节点的Web界面:`http://<master-node-ip>:8080`,确认Spark主节点和工作节点都已成功启动。 - 在Spark主节点上,运行Spark Shell进行测试: ```shell /opt/spark/bin/spark-shell --master spark://<master-node-ip>:7077 ``` 确认Spark Shell能够连接到Spark集群并正常工作。 以上是Spark 3.x集群部署的步骤。请根据实际情况进行配置和操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值