Spark2.4.4集群搭建

Spark是基于内存的分布式计算框架

本文基于<<Hadoop2.7.7 HA完全分布式集群搭建>>搭建

1.下载相应的安装包
cd /usr/local
# 下载Scala安装包
wget https://downloads.lightbend.com/scala/2.13.1/scala-2.13.1.tgz

# 下载Spark安装包
wget https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.4.4/spark-2.4.4-bin-hadoop2.7.tgz

# 解压
tar -zxvf scala-2.13.1.tgz
tar -zxvf spark-2.4.4-bin-hadoop2.7.tgz
2.修改环境变量配置
vim /etc/profile

export SCALA_HOME=/usr/local/scala-2.13.1
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_HOME=/usr/local/spark-2.4.4-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
# WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native/:$LD_LIBRARY_PATH


# 环境生效
source /etc/profile
3.修改Spark相应配置
cd /usr/local/spark-2.4.4-bin-without-hadoop/conf
cp spark-env.sh.template spark-env.sh
#然后修改spark-env.sh为

# 配置JAVA_HOME
export JAVA_HOME=/usr/local/java
export SCALA_HOME=/usr/local/scala-2.13.1
# 设置Master所在的机器名
export SPARK_MASTER_IP=weyes01
# 每一个Worker最多可以使用的内存
export SPARK_WORKER_MEMORY=1024m
# 每一个Worker最多可以使用的cpu core的个数
export SPARK_WORKER_CORES=3
# 提交Application的端口,默认为7077
export SPARK_MASTER_PORT=7077
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.7/etc/hadoop
# 修改python的版本
export PYSPARK_PYTHON=/usr/bin/python3

# 设置从节点
cp slaves.template slaves

# 这里只设置了一台,按照业务需求可设置多台
vim slaves
weyes02

# 修改python版本
cd /usr/local/spark-2.4.4-bin-hadoop2.7/bin
vim pyspark
if [[ -z "$PYSPARK_PYTHON" ]]; then
  if [[ $PYSPARK_DRIVER_PYTHON == *ipython* && ! $WORKS_WITH_IPYTHON ]]; then
    echo "IPython requires Python 2.7+; please install python2.7 or set PYSPARK_PYTHON" 1>&2
    exit 1
  else
    PYSPARK_PYTHON=python3   # 这里需要修改
  fi
fi
4.将安装包传输到weyes02上
scp -r spark-2.4.4-bin-hadoop2.7 weyes02:`pwd`
scp -r scala-2.13.1 weyes02:`pwd`
5.启动集群并验证
# master节点
/usr/local/spark-2.4.4-bin-hadoop2.7/sbin/start-all.sh
# 查看Scala是否启动成功
scala -version

Scala code runner version 2.13.1 -- Copyright 2002-2019, LAMP/EPFL and Lightbend, Inc.
# 查看Spark是否启动成功
# 通过查看日志是否安装成功
cd /usr/local/spark-2.4.4-bin-hadoop2.7/logs
# master节点
19/12/10 20:20:25 INFO master.Master: I have been elected leader! New state: ALIVE
19/12/10 20:20:55 INFO master.Master: Registering worker 192.168.18.125:37457 with 3 cores, 1024.0 MB RAM


# slave节点
19/12/10 20:20:54 INFO worker.Worker: Connecting to master weyes01:7077...
19/12/10 20:20:55 INFO worker.Worker: Successfully registered with master spark://weyes01:7077

jps验证一下
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Cocktail_py

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值