SparkStreaming任务延迟监控

SparkStreaming延迟监控

​ 这篇博客来源于一个惨痛的线上事故经历,我们编写好SparkStreaming程序清洗行为数据,然后每十分钟往Hive写一次,大家都以为任务正常的运行,不会出什么问题,然而问题正在后台默默的产生了,到了第二天,所有依赖于Hive这张行为数据表的报表数据都少了很多,这是为啥呢?为什么会有这个问题?答案:数据过多,Spark Streaming调度批次积压,再加上数据倾斜,导致一个批次任务运行时间超过了原来正常运行时间的二倍,数据延迟三个小时。

​ 这种事故最快的解决办法就是把报表任务再跑一遍,数据就全了,但是治标不治本,必须根据数据延迟情况适当调整资源和Kafka的Topic分区数,怎么才能知道Spark Streaming任务什么时候延迟呢?以及延迟情况是怎么样的呢?大家可能都知道去Spark Streaming的Web UI去看呀,地址:http://resourcemanager地址/proxy/application_id/streaming/,问题来了,我们能天天盯着它看吗,而且有可能时间不固定,后来用了爬虫的思想,先请求一下监控界面,看看能拿到哪些信息,然后在清洗一下,把关键的指标拿出来,超过阈值则报警,这样我们可以快速知道积压情况,并且及时处理,以防事故再次发生。

参数说明:–application_name : Spark Streaming代码里的application_name,–active_batches:最高可接收延迟的批次数,大于此值则报警。

# coding:utf-8
import os
import re
import sys
import requests
from lxml import etree
from optparse import OptionParser
reload(sys)
sys.setdefaultencoding('utf-8')
BASE_DIR = os.path.dirname(os.path.dirname(os.path.abspath(__file__)))
sys.path.append(BASE_DIR)
def option_parser():
    usage = "usage: %prog [options] arg1"

    parser = OptionParser(usage=usage)

    parser.add_option(
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值