从0到1:中小团队的监控告警成长之路

89d2b57f96e93a90a199818776c000de.gif

更多专业文档请访问 www.itilzj.com

背景

在过去的两年里,我们从零开始搭建了整个事业群的监控。目前整套系统接入200+的服务,700+的实例,收集了上万个指标。不停探索,历经曲折,方得自由。本文主要内容是总结两年间走过的路,趟过的坑,学习到的经验。

一无所有

业务刚开始上线时,是没有任何监控的,所有的监控都是依赖接入层的Nginx的监控数据,所有的故障都是从用户获取到反馈才能发现;排查问题依靠日志系统;从上游服务开始,逐层查询日志。每次发布上线内心都在敲锣打鼓。

疲于奔命

在业务第一个大版本上线之后,我们开始着手给业务系统接入监控,此时的选择是兄弟团队搭建的 openfalcon,使用 grafana 作为看板。基于对立体化监控的理解,开始着手建立各种纬度的看板

  • 服务纬度:

提供 Client、Server 端视图,从服务的状态、性能、质量、容量四个维度,分析需要添加到看板的指标

  • 业务纬度:

关注业务的关键路径,建立业务监控树,用于出现问题时,快速定位到具体的服务

  • 产品纬度:

分析产品关键指标,构建公共看板

在这个阶段,我们投入了大量的人力资源到监控中,却收效甚微,主要有以下几点原因:

  1. 从下往上的构建看板,需要不停的耗费人力补齐遗漏的指标

  2. 关注服务质量的指标多于关注产品质量指标,对于产品指标缺少足够的认识

  3. 受限于 openfalcon+grafana的能力,建立和维护 监控和告警,人力成本极高

  4. 所有人都要摸索熟悉监控的基础概念、门槛高

  5. 告警与业务关联度不高,业务一有波动就会误告,真正出现问题又发现没有配置告警

在这个阶段,我们投入了大量的人力,建立和维护各种看板,处理各种告警,疲于奔命,却不尽如人意。

前路始现

在第一个版本稳定之后,很长一段时间没有大需求,促使我们考虑如何解决这些问题。同时在这个阶段,在部门内部开始开发自己的RPC框架,基于在微信的工作经验,促使我们把目光投向 Prometheus 等基于数据的监控平台。

在监控方面,我们使用 SDK(数据上报) + Prometheus(数据收集)+ Grafana(监控看板),构建了更灵活方便的看板

  • 服务纬度

在开发RPC框架的同时,将服务纬度的上报直接嵌入框架中,同时提供SDK给兄弟团队用于现有服务的接入。然后统一维护了两套服务看板:全局看板,详细看板。前者负责日常运营,后者负责排查问题。

  • 业务&产品纬度

SDK设计了统一简单的上报接口,方便构建业务、产品相关的看板

至此,服务纬度的数据变成了可以逐渐迭代优化的统一视图,随着经验的积累,对监控的认识越深刻,看板使用越是应手。

在告警方面,使用 Promtheus(数据计算) + Promgen(规则管理) + AlertManager(告警管理) + Webhook (告警调用)+ 企业微信群,构建了完善的告警链条。

方得自由

在监控告警中,我们会频繁遇到以下问题:

  1. 阈值设定:不同业务场景,不同指标,如何衡量阈值是过于宽松,还是过于严格。

  2. 流量波动:在理想的世界里,流量是有起伏规律的,监控系统能够掌握这种规律,当流量上升时,告警阈值自动上升

  3. 瞬态告警:每个人都会遇到这样的情况,同样的问题隔段时间就出现一次,持续时间不过几分钟,来得快去得也快。说实话,你已经忙得不可开交了,近期内也不大会去排除这种问题。是忽略呢?还是忽略呢?

  4. 信息过载:典型的信息过载场景是,给所有需要的地方都加上了告警,以为这样即可高枕无忧了,结果随着而来的是,各种来源的告警轻松挤满你的收件箱。

  5. 故障定位:在相对复杂的业务场景下,一个“告警事件” 除了包含“时间”(何时发生)、“地点”(哪个服务器/组件)、“内容”(包括错误码、状态值等)外,还包含地区、机房、服务、接口等,故障定位之路道阻且长。

那么目前我们解决的怎么样了呢?

  • 问题 1、2,为了解决该问题,在监控平台里,引入了异常检测算法(anomaly detection) ,得到了很好的解决

  • 问题 3,使用Prometheus的能力,得以解决

  • 问题 4,我们对告警指标进行分级,只在调用链条的最上游配置细化的重要告警指标,告警之后通过链接跳转到对应的详细看板进行问题排查,告警更少更精确可查,维护起来也更简单了。

  • 问题 5,目前仍然没有得到很好的解决,但是已经有了方案,将在后续进一步优化

未来之路

基于 Prometheus 的数据平台能力,可以构建出业务所有服务的调用的树状图,并且当时的错误变化情况,进行自动故障根源分析,这也是我们以后将要做的。

7f647525ed28082614e7861e4b0b5ba7.png

(全局看板部分视图)

13f028ee3ecbf8f7832b94e770193ca9.png

f9b4a9059b17ce0ba71bfad3e7a601ba.png

(详细看板部分视图)

来源:https://www.cyningsun.com/03-28-2020/site-reliability-engineering.html

更多推荐

2 万字系统总结,带你实现 Linux 命令自由?

Linux 硬盘分区 fdisk 和 parted 命令详解

别让运维太忙,一文详解 Ansible 的自动化运维,提高工作效率

这些 Shell 分析服务器日志命令集锦,收藏好了~

服务器 12 种基本故障+排查方法

IT 运维管理常用工具大全,让你成为真正的高手

Linux 运维请收藏~ Nginx 五大常见应用场景

       

福利

系统/网络/应用运维人员的交流圈子,不定期为您提供运维技术领域前沿资讯/培训课程/独家技术手册/运维工具/文档模板等,行业大咖分享交流/同行经验分享互动,期待你的加入!扫码即可加入。

随着材料不断增多社群会不定期涨价早加入更优惠

481ff01034d6e466750f5192557e217a.png

公众号发送如下关键字获取免费资料:

1.网络安全技术资料--回复"1"

2.容器云运维资料包--回复"2"

3.Python学习资料--回复"3"

4.Devops学习视频课件--回复"4"

5.Linux运维技术资料--回复"5"

免责声明:

本公众号部分分享的资料来自网络收集和整理,所有文字和图片版权归属于原作者所有,且仅代表作者个人观点,与本公众号无关,文章仅供读者学习交流使用,并请自行核实相关内容,如文章内容涉及侵权,请联系后台管理员删除。

94af6abe2e955b917272e94c9501c549.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值