SparkStreaming延迟监控
这篇博客来源于一个惨痛的线上事故经历,我们编写好SparkStreaming程序清洗行为数据,然后每十分钟往Hive写一次,大家都以为任务正常的运行,不会出什么问题,然而问题正在后台默默的产生了,到了第二天,所有依赖于Hive这张行为数据表的报表数据都少了很多,这是为啥呢?为什么会有这个问题?答案:数据过多,Spark Streaming调度批次积压,再加上数据倾斜,导致一个批次任务运行时间超过了原来正常运行时间的二倍,数据延迟三个小时。
这种事故最快的解决办法就是把报表任务再跑一遍,数据就全了,但是治标不治本,必须根据数据延迟情况适当调整资源和Kafka的Topic分区数,怎么才能知道Spark Streaming任务什么时候延迟呢?以及延迟情况是怎么样的呢?大家可能都知道去Spark Streaming的Web UI去看呀,地址:http://resourcemanager地址/proxy/application_id/streaming/,问题来了,我们能天天盯着它看吗,而且有可能时间不固定,后来用了爬虫的思想,先请求一下监控界面,看看能拿到哪些信息,然后在清洗一下,把关键的指标拿出来,超过阈值则报警,这样我们可以快速知道积压情况,并且及时处理,以防事故再次发生。
参数说明:–application_name : Spark Streaming代码里的application_name,–active_batches:最高可接收延迟的批次数,大于此值则报警。
# coding:utf-8
import os
import re
import sys
import requests
from lxml import etree
from optparse import OptionParser
reload(sys)
sys.setdefaultencoding('utf-8')
BASE_DIR = os.path.dirname(os.path.dirname(os.path.abspath(__file__)))
sys.path.append(BASE_DIR)
def option_parser():
usage = "usage: %prog [options] arg1"
parser = OptionParser(usage=usage)
parser.add_option(