通过eBPF实例分析和解决Linux系统性能问题(一)

​随着 eBPF 技术的广泛应用,在操作系统层面提供了更多的观测能力,站在操作系统层面对应用的行为数据进行 trace 追踪成了一种应用监控的新手段,本文主要介绍基于 eBPF 实现对应用网络数据监控的背后逻辑。

一、请求数据包的组成

一个完整的应用请求数据包主要包含请求地址信息及具体的请求数据。其中请求地址信息就是五元组信息(IP+端口+协议),这部分都是操作系统协议栈负责去解析;而请求数据则由应用通过各种协议去封装并解析,常见的应用协议有:http、mysql、rediis、dns 等。

应用每一个请求数据的接受与发送都是通过网络相关的系统调用与操作系统交互,如果请求报文没有加密,那么在系统调用处做一个拦截通过函数入参就能轻而易举的拿到应用协议数据。当下热门的应用可观测都是基于此方法对应用网络数据进行trace,包括:时延、流量统计、协议等。

二、基于系统调用的请求追踪

2.1 网络请求模型
一个应用进程基于系统调用的网络请求模型如下(这里仅介绍客户端):

  • 通过 socket 去建立套接字,获得一个 fd 作为 socket 的标识。
  • 通过 connect 填写 IP 端口信息发起请求连接。
  • 通过read/write请求/接收具体数据,除了read/write系统调用还有send/recvfrom,readv/writev 等可用。
  • 通过 close 结束本次请求。

通过上面的流程图可以清晰地看到一次完整网络请求的系统调用逻辑。有几点需要注意:

  • 对于单个建链完成的请求而言,其发送数据和接收数据往往是串行的,或者说一个 write 必然匹配一个 read,因此我们才能统计到 RT 时间,而 read/write 的返回字节数就可以作为我们的流量统计
  • write/read 如何配对,对于客户端而言,是先 write 再 read,常用的做法是通过进程 pid 和 socket fd 作为配对标识,实现 write/read 这一次完整请求数据的配对。

2.2 系统调用追踪
eBPF 技术可以在不改变内核源码或加载内核模块情况下在内核插入指定 hook 代码,能在内核或应用程序执行到一个特定的 hook 点时执行。预定义的 hooks 包含系统调用、 函数出/入口、内核追踪点、网络事件等等。

有了 eBPF 做系统调用的 hook 以后,系统调用的事件采集对于我们来说变得格外方便,只不过我们需要注意下哪些事件需要上报及请求数据上报以后的匹配策略。同时对于获取请求数据是有一些讲究,对于 write 发送数据而言在系统调用函数入口直接获取入参就可以获取数据,但是对于 read 读取数据而言我们需要在系统调用函数的出口做 hook 去拿数据。

上文中提到 pid+fd 作为 traceid 作为请求的唯一标志,有如下两种方法可以实现:

方法1:当有 connect 的时候先在 BPF map 中记录下这个 traceid,表示有一个新的请求建立,后续的 read/write 请求数据都是以此为配对。不过在 http 长连接场景下,connect 发起可能在我们 trace 之前,所以只能通过 netlink 等其他方式来获取链接信息。

方法2:实际上需要关心的只是 read/write 的请求数据及如何配对,是否可以仅根据 fd 获取连接信息?BPF 程序可以拿到当前进程的 task_struct,根据 fd 可以拿到对应的 sock 结构体,sock 结构体中记录了请求地址信息。

除此之外就是 BPF 框架的技术选型,通过对 libbpf 的改进,在具备 core 特性的同时提供了更简洁的 API 接口,exporter 程序可以直接以 so 的形式加载代码。以上只是网络请求事件采集的最小单元,借助 exporter 的其他能力,可以获得更丰富的数据指标:错误数、时延、进程级流量统计等。

三、应用协议识别

在系统调用层面只能识别到 4 层网络协议,对于应用的 7 层协议无法识别,实际上是在 hook 系统调用拿到 buf 参数后,对 buf 的头部几个字节做协议头解析,目前支持的协议有:http、mysql、kafak、dns、mongo、pgsql、dubbo。对于 https 等加密报文可以通过 uprobe 的方式对 ssl 加密库做 hook。

四、部署

在日常工作中也常有碰到各种网络抖动时延问题的情况,可以通过容器一键部署,并在 grafana 中查看对应的时延分布及具体的时延请求信息。

五、what’s more

除了上文提到的基于系统调用的应用观测,对于应用由于自身原因收包缓慢造成网络“假抖动”的情况也做了相关观测实践。一个完整的收包流程主要分为两个阶段:

阶段1:OS 通过软中断将数据包上送到应用的收包队列并通知进程后就算完成了协议栈的收包工作。

阶段2:应用得到通知后去收报队列取包。

这两个阶段可以认为是异步的,将数据包到达收包队列到应用完成取包这段时间作为应用的"收包延迟时间"进行观测,基于此方法在网络抖动问题定位中得到了极大帮助。

案例1 某业务应用基于 dubbo 框架容器收到 tcp 包后延迟了将近 1s 业务层才收到
发现"收包延迟时间"将近 1 秒,右侧红框部分为时间,单位为纳秒,结合左侧红框每次发生延迟时间都在某某时间 42 秒,怀疑跟业务某定时任务相关造成应用自身时延,最终排查到业务有某个任务会定时收集 jvm 的参数,对应用有 stop 动作,停掉该任务后消除了抖动问题。

案例2 业务高峰期,客户端 rpc 耗时比服务端多 20-30ms
业务监控如下:

发现对应时间段存在应用“收包延迟时间”较大,因此首先排除了网络链路问题。红框部分为时间,单位为纳秒,图中时间需要加上 8 小时。

根据时序对比发现是由于此时间段应用在做 GC 导致,最后通过调整 GC 参数解决。

六、总结

当日志无法解决问题或者没有日志的情况下,利用 eBPF 技术在 OS 层面对应用行为逻辑的观测,在定位某些应用的疑难问题时有着极大帮助。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

芯光未来

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值