SparkCore:History-Server/监控,查看程序历史运行日志

本文介绍了Spark的History-Server,它允许用户在应用程序执行完成后继续监控作业。History-Server配置包括启动设置,通过配置Spark应用程序可将运行信息保存到指定日志目录。在验证部分,通过Spark-shell和Web UI展示了History-Server的实时监控能力。此外,文章还提及了History-Server的重要参数和REST API,提供了进一步获取作业信息的方法。
摘要由CSDN通过智能技术生成

官网:Monitoring and Instrumentation
http://spark.apache.org/docs/2.4.2/monitoring.html

1、History-Server介绍

当你执行spark-shell --master local[2]的时候
默认情况下,每个SparkContext在端口4040上启动一个web UI;如果多个sparkcontext在同一主机上运行,它们将从4040(4041、4042等)开始的连续端口启动web UI。
但是应用程序执行完成后都会sc.stop,此时再次刷新web UI发现再也无法代开,如果想继续监控未完成的作业,那么就需要History-Server,通过相应的配置,Spark应用程序在运行完应用程序之后,将应用程序的运行信息写入指定日志记录目录,而 history server可以将这些运行信息装载并以web的方式供用户浏览。

2、History-Server配置

[hadoop@vm01 ~]$ hdfs dfs -mkdir /spark-logs
[hadoop@vm01 conf
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值