官网:Monitoring and Instrumentation
http://spark.apache.org/docs/2.4.2/monitoring.html
1、History-Server介绍
当你执行spark-shell --master local[2]
的时候
默认情况下,每个SparkContext在端口4040上启动一个web UI;如果多个sparkcontext在同一主机上运行,它们将从4040(4041、4042等)开始的连续端口启动web UI。
但是应用程序执行完成后都会sc.stop
,此时再次刷新web UI发现再也无法代开,如果想继续监控未完成的作业,那么就需要History-Server,通过相应的配置,Spark应用程序在运行完应用程序之后,将应用程序的运行信息写入指定日志记录目录,而 history server可以将这些运行信息装载并以web的方式供用户浏览。
2、History-Server配置
[hadoop@vm01 ~]$ hdfs dfs -mkdir /spark-logs
[hadoop@vm01 conf