spark03: 基础——Spark history server、Spark任务调度、读写分布式数据

本文详细介绍了如何配置Spark历史服务器,包括修改配置文件、创建HDFS日志目录及启动服务。此外,还讲解了Spark任务提交的Standalone和Yarn两种模式,并对比了client和cluster模式的区别。同时,文中通过Spark Shell和IDEA展示了如何编写及运行Spark任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、Spark的历史服务-spark history server

在实际生产中,需要查看已经执行的任务的详细日志信息
 

1.1 配置历史服务

1.1.1 修改spark conf下的spark-defaults.conf,添加

# 启用spark history server eventlog.dir会为每一个任务创建一个子目录
spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://linux01.pub:9000/spark-logs

spark.eventLog.enabled: 是否启用spark history

spark.eventLog.dir : hdfs中日志的存储位置

1.1.2 在hdfs中创建spark-logs目录

hdfs dfs -mkdir /spark-logs

1.1.3 修改spark-env.sh,加入

export  SPARK_HISTORY_OPTS="-Dspark.history.ui.port=4000 -Dspark.history.retained-applications=3 -Dspark.history.fs.logDirectory=hdfs://linux01.pub:9000/spark-logs"

-Dspark.history.retained-applications:允许存放的日志个数,如果超过此值则旧的日志会从内存中移除,但不会在HDFS中删除

-Dspark.history.fs.logDirectory:指定存放历

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

pub.ryan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值