spark监控

有几种方法可以监控Spark应用程序:Web UI,指标和外部检测。

Web界面

默认情况下,每个SparkContext都会在端口4040上启动Web UI,以显示有关应用程序的有用信息。这包括:

  • 调度程序阶段和任务的列表
  • RDD大小和内存使用情况的摘要
  • 环境信息。
  • 有关运行执行程序的信息

您只需http://<driver-node>:4040Web浏览器中打开即可访问此界面。如果多个SparkContexts在同一主机上运行,​​它们将绑定到以4040(4041,4042等)开头的连续端口。

请注意,此信息仅在应用程序的默认时间内可用。要在事后查看Web UI,请spark.eventLog.enabled在启动应用程序之前设置为true。这会将Spark配置为记录Spark事件,该事件将UI中显示的信息编码为持久存储。

事后观察

如果应用程序的事件日志存在,仍然可以通过Spark的历史服务器构建应用程序的UI。您可以通过执行以下命令启动历史记录服

./sbin/start-history-server.sh

http://<server-url>:18080默认情况下,这会创建一个Web界面,列出未完成和已完成的应用程序和尝试。

使用文件系统提供程序类(请参见spark.history.provider下文)时,必须在spark.history.fs.logDirectory配置选项中提供基本日志记录目录,并且应包含每个代表应用程序事件日志的子目录。

必须将spark作业本身配置为记录事件,并将它们记录到同一个共享的可写目录中。例如,如果服务器配置了日志目录hdfs://namenode/shared/spark-logs,那么客户端选项将是:

 
  1. spark.eventLog.enabled true

  2. spark.eventLog.dir hdfs://namenode/shared/spark-logs

历史服务器可以配置如下:

环境变量

环境变量含义
SPARK_DAEMON_MEMORY要分配给历史服务器的内存(默认值:1g)。
SPARK_DAEMON_JAVA_OPTS历史服务器的JVM选项(默认值:无)。
SPARK_DAEMON_CLASSPATH历史服务器的类路径(默认值:无)。
SPARK_PUBLIC_DNS历史服务器的公共地址。如果未设置此选项,则指向应用程序历史记录的链接可能会使用服务器的内部地址,从而导致链接断开(默认值:无)。
SPARK_HISTORY_OPTSspark.history.* 历史服务器的配置选项(默认值:无)。

Spark配置选项

物业名称默认含义
spark.history.providerorg.apache.spark.deploy.history.FsHistoryProvider实现应用程序历史后端的类的名称。目前,Spark只提供了一个实现,用于查找存储在文件系统中的应用程序日志。
spark.history.fs.logDirectory文件:/ tmp目录/火花事件对于文件系统历史记录提供程序,包含要加载的应用程序事件日志的目录的URL。这可以是本地file://路径,HDFS路径hdfs://namenode/shared/spark-logs 或Hadoop API支持的备用文件系统。
spark.history.fs.update.interval10S文件系统历史记录提供程序检查日志目录中的新日志或更新日志的时间段。较短的间隔可以更快地检测新应用程序,代价是更多服务器负载重新读取更新的应用程序。更新完成后,已完成和未完成的应用程序列表将反映更改。
spark.history.retainedApplications50保留缓存中UI数据的应用程序数。如果超过此上限,则将从缓存中删除最旧的应用程序。如果应用程序不在缓存中,则必须从磁盘加载它(如果从UI访问)。
spark.history.ui.maxApplicationsInt.MaxValue要在历史摘要页面上显示的应用程序数。即使应用程序UI未显示在历史摘要页面上,它们仍然可以直接访问其URL。
spark.history.ui.port18080历史服务器的Web界面绑定的端口。
spark.history.kerberos.enabled指示历史记录服务器是否应使用kerberos登录。如果历史记录服务器正在访问安全Hadoop集群上的HDFS文件,那么这是必需的。如果这是真的,它使用配置spark.history.kerberos.principalspark.history.kerberos.keytab
spark.history.kerberos.principal(没有)历史服务器的Kerberos主体名称。
spark.history.kerberos.keytab(没有)历史记录服务器的kerberos密钥表文件的位置。
spark.history.ui.acls.enable指定是否应检查acls以授权查看应用程序的用户。如果启用,则无论应用spark.ui.acls.enable程序运行时单个应用程序设置了什么,都会进行访问控制检查。应用程序所有者将始终拥有查看自己的应用程序的权限,spark.ui.view.acls并且通过spark.ui.view.acls.groups 应用程序运行时指定的任何用户和组指定的任何用户 也将有权查看该应用程序。如果禁用,则不进行访问控制检查。
spark.history.ui.admin.acls逗号分隔的用户/管理员列表,具有对历史服务器中所有Spark应用程序的查看访问权限。默认情况下,只允许在运行时查看应用程序的用户可以访问相关的应用程序历史记录,配置的用户/管理员也可以拥有访问它的权限。在列表中加上“*”表示任何用户都可以拥有admin权限。
spark.history.ui.admin.acls.groups逗号分隔的组列表,具有对历史服务器中所有Spark应用程序的查看访问权限。默认情况下,只允许在运行时查看应用程序的组可以访问相关的应用程序历史记录,配置的组也可以拥有访问它的权限。在列表中加上“*”表示任何组都可以拥有admin的权限。
spark.history.fs.cleaner.enabled指定历史记录服务器是否应定期清理存储中的事件日志。
spark.history.fs.cleaner.interval1D文件系统作业历史记录清理程序检查要删除的文件的频率。仅当文件早于文件时才删除文件spark.history.fs.cleaner.maxAge
spark.history.fs.cleaner.maxAge7D文件系统历史记录清理程序运行时,将删除早于此的作业历史记录文件。
spark.history.fs.numReplayThreads25%的可用内核历史记录服务器用于处理事件日志的线程数。
spark.history.store.path(没有)本地目录缓存应用程序历史数据的位置。如果设置,则历史服务器将应用程序数据存储在磁盘上,而不是将其保留在内存中。写入磁盘的数据将在历史服务器重新启动时重复使用。

请注意,在所有这些UI中,表格可以通过单击其标题进行排序,从而可以轻松识别缓慢的任务,数据倾斜等。

注意

  1. 历史记录服务器显示已完成和未完成的Spark作业。如果应用程序在失败后进行多次尝试,则将显示失败的尝试,以及任何正在进行的未完成尝试或最终成功尝试。

  2. 不完整的应用程序仅间歇性更新。更新之间的时间由检查已更改文件(spark.history.fs.update.interval)之间的间隔定义。在较大的集群上,可以将更新间隔设置为较大的值。查看正在运行的应用程序的方法实际上是查看自己的Web UI。

  3. 退出但未将自己注册为已完成的应用程序将被列为不完整 - 尽管它们不再运行。如果应用程序崩溃,可能会发生这种情况。

  4. 发出Spark作业完成信号的一种方法是显式地停止Spark上传(sc.stop()),或者使用with SparkContext() as sc:构造来处理Spark上下文设置和拆除。

REST API

除了在UI中查看指标外,它们还可以作为JSON使用。这为开发人员提供了一种为Spark创建新的可视化和监视工具的简便方法。JSON既可用于正在运行的应用程序,也可用于历史记录服务器。端点安装在/api/v1。例如,对于历史服务器,它们通常可以在http://<server-url>:18080/api/v1运行的应用程序中访问,也可以在运行的应用程序中访问http://localhost:4040/api/v1

在API中,应用程序由其应用程序ID引用[app-id]。在YARN上运行时,每个应用程序可能有多次尝试,但是只有集群模式下的应用程序才有尝试ID,而不是客户端模式下的应用程序。YARN集群模式中的应用程序可以通过它们来识别[attempt-id]。在下面列出的API中,当在YARN群集模式下运行时, [app-id]实际上是[base-app-id]/[attempt-id][base-app-id]YARN应用程序ID 在哪里。

端点含义
/applications所有申请表。 
?status=[completed|running]仅列出所选状态的应用程序。 
?minDate=[date]最早的开始日期/时间列表。 
?maxDate=[date]最新开始日期/时间列表。 
?minEndDate=[date]最早的结束日期/时间列表。 
?maxEndDate=[date]最新结束日期/时间列表。 
?limit=[limit]限制列出的应用程序数量。 
例子: 
?minDate=2015-02-10 
?minDate=2015-02-03T16:42:40.000GMT 
?maxDate=2015-02-11T20:41:30.000GMT 
?minEndDate=2015-02-12 
?minEndDate=2015-02-12T09:15:10.000GMT 
?maxEndDate=2015-02-14T16:30:45.000GMT 
?limit=10
/applications/[app-id]/jobs给定应用程序的所有作业的列表。 
?status=[running|succeeded|failed|unknown]仅列出特定州的工作。
/applications/[app-id]/jobs/[job-id]给定工作的详细信息。
/applications/[app-id]/stages给定应用程序的所有阶段的列表。 
?status=[active|complete|pending|failed]仅列出州内的各个阶段。
/applications/[app-id]/stages/[stage-id]给定阶段的所有尝试的列表。
/applications/[app-id]/stages/[stage-id]/[stage-attempt-id]给定阶段尝试的详细信息。
/applications/[app-id]/stages/[stage-id]/[stage-attempt-id]/taskSummary给定阶段尝试中所有任务的摘要度量标准。 
?quantiles用给定的分位数总结度量。 
例:?quantiles=0.01,0.5,0.99
/applications/[app-id]/stages/[stage-id]/[stage-attempt-id]/taskList给定阶段尝试的所有任务的列表。 
?offset=[offset]&length=[len]列出给定范围内的任务。 
?sortBy=[runtime|-runtime]对任务进行排序。 
例:?offset=10&length=50&sortBy=runtime
/applications/[app-id]/executors给定应用程序的所有活动执行程序的列表。
/applications/[app-id]/allexecutors给定应用程序的所有(活动和死)执行程序的列表。
/applications/[app-id]/storage/rdd给定应用程序的存储RDD列表。
/applications/[app-id]/storage/rdd/[rdd-id]给定RDD的存储状态的详细信息。
/applications/[base-app-id]/logs将给定应用程序的所有尝试的事件日志下载为zip文件中的文件。
/applications/[base-app-id]/[attempt-id]/logs以zip文件的形式下载特定应用程序尝试的事件日志。
/applications/[app-id]/streaming/statistics流式上下文的统计信息。
/applications/[app-id]/streaming/receivers所有流媒体接收器的列表。
/applications/[app-id]/streaming/receivers/[stream-id]给定接收器的详细信息。
/applications/[app-id]/streaming/batches所有保留批次的列表。
/applications/[app-id]/streaming/batches/[batch-id]给定批次的详细信息。
/applications/[app-id]/streaming/batches/[batch-id]/operations给定批次的所有输出操作的列表。
/applications/[app-id]/streaming/batches/[batch-id]/operations/[outputOp-id]给定操作和给定批次的详细信息。
/applications/[app-id]/environment给定应用程序的环境详细信息。
/version获取当前的火花版本。

可以检索的作业和阶段的数量受独立Spark UI的相同保留机制的限制; "spark.ui.retainedJobs"定义触发作业垃圾收集的阈值,以及spark.ui.retainedStages阶段的垃圾收集。请注意,垃圾回收在回放时发生:可以通过增加这些值并重新启动历史记录服务器来检索更多条目。

API版本控制策略

这些端点经过了强大的版本控制,可以更轻松地开发应用程序。特别是,Spark保证:

  • 永远不会从一个版本中删除端点
  • 对于任何给定的端点,永远不会删除单个字段
  • 可以添加新的端点
  • 可以将新字段添加到现有端点
  • 可以在将来添加新版本的api作为单独的端点(例如,api/v2)。新版本要求是向后兼容。
  • Api版本可能会被删除,但只有在至少一个与新api版本共存的次要版本之后。

请注意,即使在检查正在运行的应用程序的UI时,applications/[app-id]仍然需要该部分,尽管只有一个应用程序可用。例如。要查看正在运行的应用程序的作业列表,您可以访问http://localhost:4040/api/v1/applications/[app-id]/jobs。这是为了在两种模式下保持路径一致。

度量

Spark有一个基于Dropwizard指标库的可配置指标系统 。这允许用户将Spark指标报告给各种接收器,包括HTTP,JMX和CSV文件。度量系统通过Spark期望出现的配置文件进行配置$SPARK_HOME/conf/metrics.properties。可以通过spark.metrics.conf 配置属性指定自定义文件位置 。默认情况下,用于驱动程序或执行程序度量标准的根命名空间是值spark.app.id。但是,通常情况下,用户希望能够跟踪应用程序中驱动程序和执行程序的度量标准,这很难用应用程序ID(即spark.app.id),因为它随应用程序的每次调用而变化。对于此类用例,可以为使用的度量标准指定自定义命名空间spark.metrics.namespace 配置属性。例如,如果用户想要将metrics命名空间设置为应用程序的名称,则可以将spark.metrics.namespace属性设置为类似的值${spark.app.name}。然后,Spark会适当地扩展此值,并将其用作度量系统的根命名空间。非驱动程序和执行程序指标从不作为前缀spark.app.idspark.metrics.namespace属性也不 会对此类指标产生任何影响。

Spark的度量标准分离到与Spark组件对应的不同 实例中。在每个实例中,您可以配置一组报告度量标准的接收器。目前支持以下实例:

  • master:Spark独立主进程。
  • applications:主服务器中的一个组件,用于报告各种应用程序。
  • worker:Spark独立工作进程。
  • executor:Spark执行者。
  • driver:Spark驱动程序进程(创建SparkContext的过程)。
  • shuffleService:Spark shuffle服务。

每个实例都可以向零个或多个接收器报告。org.apache.spark.metrics.sink包装中包含水槽 :

  • ConsoleSink:将度量标准信息记录到控制台。
  • CSVSink:定期将指标数据导出到CSV文件。
  • JmxSink:注册要在JMX控制台中查看的度量标准。
  • MetricsServlet:在现有Spark UI中添加servlet,以将度量数据作为JSON数据提供。
  • GraphiteSink:将指标发送到Graphite节点。
  • Slf4jSink:将指标发送到slf4j作为日志条目。
  • StatsdSink:将指标发送到StatsD节点。

Spark还支持Ganglia接收器,由于许可限制,该接收器未包含在默认构建中:

  • GangliaSink:将度量标准发送到Ganglia节点或多播组。

要安装,GangliaSink您需要执行Spark的自定义构建。请注意,通过嵌入此库,您将在Spark包中包含LGPL -licensed代码。对于sbt用户,SPARK_GANGLIA_LGPL在构建之前设置 环境变量。对于Maven用户,请启用-Pspark-ganglia-lgpl配置文件。除了修改集群的Spark构建之外,用户应用程序还需要链接到spark-ganglia-lgpl工件。

度量配置文件的语法在示例配置文件中定义 $SPARK_HOME/conf/metrics.properties.template

高级仪器

可以使用几个外部工具来帮助分析Spark作业的性能:

  • 群集范围的监视工具(如Ganglia)可以提供对整体群集利用率和资源瓶颈的深入了解。例如,Ganglia仪表板可以快速显示特定工作负载是磁盘绑定,网络绑定还是CPU绑定。
  • 操作系统分析工具(如dstat, iostatiotop) 可以在各个节点上提供细粒度的分析。
  • JVM实用程序(如jstack用于提供堆栈跟踪,jmap用于创建堆转储, jstat用于报告时间序列统计信息以及jconsole用于可视化地探索各种JVM属性)对于那些熟悉JVM内部的人来说非常有用。

 

 

 

 

 

!/usr/bin/env python
# -*- coding: utf-8 -*-
'''
    Created by zhangy on Aug 25, 2017
'''
import datetime
import json, urllib2
import os
import time  

12 if __name__ == '__main__':
    command = "yarn application -list |grep Noce |awk -F'\t' '{print $1}'"
    val = os.popen(command).read()
    appids = val.split("\n")
    for pid in appids:
        if pid.__eq__(""):continue
        url = "http://th04-znwg-sgi620-001:18088/api/v1/applications/" + pid
        req = urllib2.Request(url)
        res_data = urllib2.urlopen(req)
        res = res_data.read()
        jo = json.loads(res)
        dict1 = jo['attempts'][0]
        st = dict1['startTime']
        GMT_FORMAT = '%Y-%m-%dT%H:%M:%S.%fGMT'
        sti = datetime.datetime.strptime(st, GMT_FORMAT)
        startTime = time.mktime(sti.timetuple()) + 8 * 60 * 60
        nowTime = long(time.time())
        sub = nowTime - startTime
        if sub > 4 * 60 * 60:
            killCommand = "yarn application -kill " + pid
            res = os.popen(killCommand ).read()
cc = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(float(nowTime)))
f = open("/home/noce1/run_noce/his/monitor/" + pid + ".txt", "a")
f.write(cc + " : " + "pid : " + "\n" + sub + " seconds")
f.write(res + "\n")
      f.close()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值