搭建Spark集群

本文详细描述了如何在Windows上下载Spark安装包,将其上传至虚拟机,配置环境变量如JAVA_HOME和HADOOP_HOME,设置Spark配置文件(如spark-env.sh,workers,spark-defaults.conf),以及启动Hadoop集群和Spark服务的过程。
摘要由CSDN通过智能技术生成

在Spark官网选择对应版本的Spark安装包并下载至Windows本地路径

Apache Spark™ - Unified Engine for large-scale data analytics

将Spark安装包上传至虚拟机的/opt目录下

我运用的工具为Xtp 7

将Spark安装包解压至/usr/local目录下

切换至Spark安装目录的/conf下

配置spark-env.sh文件:复制spark-env.sh.template文件并重命名为spark-env.sh,打开spark-env.sh,并添加代码

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.242.b08-1.el7.x86_64/jre

export HADOOP_HOME=/usr/local/hadoop3

//写自己的JAVA_HOME HADOOP_HOME
export SPARK_MASTER_IP=master
export SPARK_LOCAL_IP=master
export HADOOP_CONF_DIR=$HADOOP_HOME
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=512m
export SPARK_WORKER_CORES=1
export SPARK_EXECUTOR_MEMORY=512m
export SPARK_EXECUTOR_CORES=1
export SPARK_WORKER_INSTANCES=1

配置workers文件:复制workers.template文件并重命名为workers,删除原有代码,添加以下代码

slave1

slave2        //克隆的两个虚拟机名称

 配置spark-defaults.conf文件:复制spark-defaults.conf.template文件并重命名为spark-defaults.conf,打开并加上以下代码

spark.master                    spark://Master:7077
spark.eventLog.enabled          true
spark.eventLog.dir              hdfs://Master:9000/spark-logs
spark.history.fs.logDirectory      hdfs://Master:8020/sparl-logs

在主节点(master节点)中,将配置好的Spark安装目录复制到子节点的/usr/local目录下

  

启动hadoop集群,并创建/spark-logs目录,通过命令jps查看进程

启动Spark集群

  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值