spark的集群安装【最简单的安装】

spark的集群安装

1 上传解压

1.1 hadoop2.7.7环境,安装spark3.1.3

[root@hadoop111 software]# tar -zxvf spark-3.1.3-bin-hadoop2.7.tgz -C /opt/module/

1.2 重命名

[root@hadoop111 module]# mv spark-3.1.3-bin-hadoop2.7/ spark-3.1.3

1.3删除cmd文件(可选)

rm -rf *.cmd

2 修改配置文件

2.1 spark-env.sh

cd /opt/module/spark-3.1.3/conf/

vim spark-env.sh

# 添加jdk
export JAVA_HOME=/opt/module/jdk1.8
# standalone模式Master启动的机器主机名
SPARK_MASTER_HOST=hadoop111
# standalone模式Master启动的服务端口
SPARK_MASTER_PORT=7077
# standalone模式Master的Web界面的端口
SPARK_MASTER_WEBUI_PORT=8080

2.2 spark-defaults.conf

cp spark-defaults.conf.template spark-defaults.conf

vim spark-defaults.conf

# Spark默认使用的MasterURI
spark.master   spark://hadoop111:7077

2.3 workers

cp workers.template workers

vim workers

# 配置需要启动worker进程的所有机器
hadoop111
hadoop112
hadoop113

2.4 修改spark的start-all.sh和stop-all.sh文件名

[root@hadoop111 sbin]# mv start-all.sh start-spark-all.sh

[root@hadoop111 sbin]# mv stop-all.sh stop-spark-all.sh

3 分发

#执行rxyncrsync远程同步工具脚本xsync(名字随意改)
/home/lizi/bin/xsync /opt/module/spark-3.1.3

3.1 脚本2

#!/bin/bash
MY_HOSTNAME=`hostname`
HOSTS=`cat /etc/hosts | grep bd | awk '{print $2}' | grep -v $MY_HOSTNAME`
for HOST in $HOSTS
do
 echo "正在将${1}发送到${HOST}${2}..."
 scp -rq  $1  $HOST:$2
 echo "done.."
done

4 配置环境变量

echo 'export SPARK_HOME=/opt/module/spark-3.1.3' >> /etc/profile.d/my_env.sh
echo 'export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH' >> /etc/profile.d/my_env.sh
source /etc/profile

5 启动环境

start-spark-all.sh

6 Spark-shell

# 启动spark-shell
spark-shellCOPY
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

栗子叔叔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值