Spark Yarn 运行环境搭建

该文详细介绍了如何在Linux环境下搭建SparkonYarn,包括解压缩Spark安装包,修改配置文件如`yarn-site.xml`和`spark-env.sh`,配置历史服务器的日志存储路径和保留应用数量,以及启动历史服务的相关步骤。
摘要由CSDN通过智能技术生成

Spark Yarn 运行环境搭建

1、解压缩文件

将spark3.2.3的压缩包上传到 linux /opt/software 目录下
在这里插入图片描述
输入命令: tar -zxvf spark-3.2.3-bin-hadoop3.2-scala2.13.tgz -C /opt/ 解压到opt目录下
输入命令: mv spark-3.2.3-bin-hadoop3.2-scala2.13/ spark 改名为spark
在这里插入图片描述

2、修改配置环境文件

1、修改 hadoop 配置文件/opt/hadoop/etc/hadoop/yarn-site.xml, 并分发
输入命令:vim /opt/hadoop-3.1.3/etc/hadoop/yarn-site.xml
在这里插入图片描述
2、修改 conf/spark-env.sh,添加 JAVA_HOME 和YARN_CONF_DIR 配置
输入命令:mv spark-env.sh.template spark-env.sh 把这个文件后缀名改一下
在这里插入图片描述
输入命令: vim spark-env.sh 添加下面的配置
在这里插入图片描述
3、启动 HDFS 以及 YARN 集群

3、配置历史服务器

1、修改 spark-defaults.conf.template 文件名为 spark-defaults.conf
输入命令:mv spark-defaults.conf.template spark-defaults.conf
在这里插入图片描述
2、修改 spark-default.conf 文件,配置日志存储路径
输入命令: vim spark-defaults.conf 添加以下配置
在这里插入图片描述
注意:需要启动 hadoop 集群,HDFS 上的目录需要提前存在。
3、修改 spark-env.sh 文件, 添加日志配置
在这里插入图片描述

export SPARK_HISTORY_OPTS="
-Dspark.history.ui.port=18080
-Dspark.history.fs.logDirectory=hdfs://hadoop102:9870/directory
-Dspark.history.retainedApplications=30"

参数说明
⚫参数 1 含义:WEB UI 访问的端口号为 18080
⚫参数 2 含义:指定历史服务器日志存储路径
⚫参数 3 含义:指定保存Application 历史记录的个数,如果超过这个值,旧的应用程序信息将被删除,这个是内存中的应用数,而不是页面上显示的应用数。
4、修改 spark-defaults.conf
输入命令: vim spark-defaults.conf 添加以下配置
在这里插入图片描述

spark.yarn.historyServer.address=hadoop102:18080 
spark.history.ui.port=18080

5、启动历史服务
输入命令: /opt/spark/sbin/start-history-server.sh
在这里插入图片描述

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值