Spark cluster 安装

本文详细介绍了如何在Ubuntu服务器上安装JDK和Spark,并配置Master和Worker节点,包括设置环境变量、启动服务和验证Spark Master UI,适用于Windows Worker的接入与管理。
摘要由CSDN通过智能技术生成

使用 Ubuntu 机器做主服务

Master
192.168.50.15 (Ubuntu)

Worker 1
192.168.50.15 (Ubuntu)
Worker 2
192.168.50.16 (Windows 10)

先安装 JDK 和下载 Apache Spark

sudo apt-get install openjdk-11-jdk
wget https://archive.apache.org/dist/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
tar xvf spark-3.1.2-bin-hadoop3.2.tgz
sudo mv spark-3.1.2-bin-hadoop3.2 /opt/spark

设置 SPARK_HOME

vi ~/.profile

export SPARK_HOME=/opt/spark

source ~/.profile

设置 服务器 IP

cd /opt/spark/conf
cp spark-env.sh.template spark-env.sh

SPARK_LOCAL_IP=192.168.50.15
SPARK_MASTER_HOST=192.168.50.15

起动 Master 和 Worker 1

sudo /opt/spark/sbin/start-master.sh
sudo /opt/spark/sbin/start-worker.sh spark://192.168.50.15:7077

Windows 下载 Apache Spark 和 Hadoop winutils.exe 放到 e.g. D:\app

https://archive.apache.org/dist/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
https://github.com/cdarlint/winutils/tree/master/hadoop-3.2.2/bin

设置环境变量 SPARK_HOME, HADOOP_HOME 和 PATH

SPARK_HOME
D:\app\spark
PATH add %SPARK_HOME%\bin


HADOOP_HOME
D:\app\hadoop
PATH add %HADOOP_HOME%\bin

打开命令字元

spark-class org.apache.spark.deploy.worker.Worker spark://192.168.50.15:7077

查看 Spark Master UI

使用 Ctrl-C 来停止 Windows Worker 2

停止 Worker 1 和 Master

sudo /opt/spark/sbin/stop-worker.sh
sudo /opt/spark/sbin/stop-master.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值