运维排查篇 | 设备单核软中断过高时怎么办?

作为一名运维人员,我觉得“定位"能力很重要——即将故障问题找出来的能力,因为找出问题往往比解决问题更困难,更重要

今天呢,我将用一个自己经历的真实的案例来跟大家讲一件,当设备单核软中断过高时我们该怎么办,排查的思路是怎么样的。

(为了不影响到公司,本文出现的设备情况以及相关命令都与目前作者所在的公司无关,设备以及相关环境都是作者自己搭建的)

注意,复杂多变的生产环境会使得排障手段或者方法往往各不相同,但整体思路还是大同小异的,我觉得我们从这篇文章中,特别是**“运维排查篇”这个专栏里面的文章里主要学习的是如何定位、找出问题 ,以及对设备异常时的一些排障思路**

问题描述

那天晚上,我正在值夜班,突然收到消息说某个设备有丢包现象,让我排查处理一下

于是我登上设备终端,刚登上设备就发现异常:我感觉到系统响应明显变慢了,简单的 SHELL 命令都明显变慢了,即使是在终端敲几个回车,都得很久才能响应。

我的第一反应是系统应该是出现了性能瓶颈,看下系统资源整体使用情况是个不错的选择

于是我执行了 top 命令,以下是 top 命令输出结果

# top运行后按数字1切换到显示所有CPU
$ top
top - 23:50:58 up 3 days, 22:10,  1 user,  load average: 1.00, 1.03, 1.04
Tasks: 122 total,   1 running,  71 sleeping,   0 stopped,   0 zombie
%Cpu0  :  0.0 us,  0.0 sy,  0.0 ni, 96.7 id,  0.0 wa,  0.0 hi,  3.3 si,  0.0 st
%Cpu1  :  0.0 us,  0.0 sy,  0.0 ni, 95.6 id,  0.0 wa,  0.0 hi,  4.4 si,  0.0 st
%Cpu2  :  0.0 us,  0.0 sy,  0.0 ni, 95.6 id,  0.0 wa,  0.0 hi,  4.4 si,  0.0 st
%Cpu3  :  0.0 us,  0.0 sy,  0.0 ni, 95.6 id,  0.0 wa,  0.0 hi,  4.4 si,  0.0 st
%Cpu4  :  0.0 us,  0.0 sy,  0.0 ni, 95.6 id,  0.0 wa,  0.0 hi,100.0 si,  0.0 st
%Cpu5  :  0.0 us,  0.0 sy,  0.0 ni, 95.6 id,  0.0 wa,  0.0 hi,  4.4 si,  0.0 st
%Cpu6  :  0.0 us,  0.0 sy,  0.0 ni, 95.6 id,  0.0 wa,  0.0 hi,  4.4 si,  0.0 st
。。。。

我们可以看到

  • 平均负载并不高

  • 只有一个进程正在执行

  • cpu4的软中断使用率已经高达百分之百

除此之外,当时我还观察到cpu使用率最高的进程为 ksoftirqd,这是系统的软中断进程

现在我们就能得出一个结论:该设备单核软中断高达百分百,已经严重影响到了系统的整体性能

现在我们已经找出主要问题了,至于如何产生,我们还需继续排查,在这之前,我先介绍一下什么是软中断

Linux软中断

中断

介绍软中断之前,就不得不先介绍一下中断

什么是中断?

简单点来讲,中断是系统用来响应硬件设备(例如网卡、磁盘键盘等等)请求的一种机制

为了快速响应硬件设备的请求,中断会打断进程的正常执行和调度,然后调用内核中的中断处理程序来响应硬件设备的请求

举个例子

你订了一份外卖,但是不确定外卖什么时候送到,也没有别的方法了解外卖的进度,而且配送员送外卖是不等人的,到了你这儿没人取的话,就直接走人了。所以你只能苦苦等着,时不时去门口看看外卖送到没,而不能干其他事情。

不过呢,如果在订外卖的时候,你就跟配送员约定好,让他送到后给你打个电话,那你就不用苦苦等待了,就可以去忙别的事情,直到电话一响,接电话、取外卖就可以了

这里的打电话就是一个中断,没接到电话的时候,你可以去做其他事情(例如进程的正常调度和执行),当外卖到了,你接到了电话(中断产生),这时候你会立刻放下手头上正在做的事,去执行另一个动作——取外卖(执行中断处理程序)

这个例子我们可以发现,中断其实是一种异步的事件处理机制,可以提高系统的并发处理能力

不知道你们发现了没有,中断会打断其他进程的正常运行,并执行中断处理程序,如果中断处理程序运行时间很长会发生什么事呢?

在中断处理程序执行过程中,会临时关闭中断,这就会导致这次中断处理前,其他中断都不能响应,也就意味着中断有可能会丢失。

举个例子

假如你订了两份外卖,并且是由两个不同的配送员来配送,你跟配送员还约定了外卖到打电话的方式。

但是,问题又来了。

当第一份外卖送到时,配送员给你打了个长长的电话,讨论商量发票的处理方式。与此同时,第二个配送员也到了,也想给你打电话。

很明显,因为电话占线(也就是关闭了中断响应),第二个配送员的电话是打不通的。所以,第二个配送员很可能试几次后就走掉了(也就是丢失了一次中断)。


为了解决中断丢失或者中断处理程程序处理时间过长的问题,我们于是便有了软中断

软中断

系统为了解决中断丢失或者中断处理程序执行时间过长的问题,将中断处理分成了两个阶段

  • 上半部

    • 上半部用来快速处理中断,它在中断禁止模式(关闭中断响应)下运行,主要处理跟硬件紧密相关的或时间敏感的工作,也就是我们所说的硬中断
  • 下半部

    • 下半部用来延迟处理上半部未完成的工作,通常以内核线程的方式运行,也就是我们所说的软中断

上半部(硬中断)会打断CPU正在执行的任务,然后立刻执行中断处理程序。

而下半部以内核线程的方式执行,并且每个 CPU 都对应一个软中断内核线程,名字为“ksoftirqd/CPU 编号”,比如说, 0 号 CPU 对应的软中断内核线程的名字就是 ksoftirqd/0

我们可以通过查看 /proc/softirqs 文件的内容,就可以看到各种类型软中断在不同 CPU 上的累积运行次数

在介绍了中断和软中断的概念后,我们回到案例中

排查

定位到设备是因为软中断过高后,我们要知道是哪种类型的软中断出了问题

上面说到,我们可以去查看 /proc/softirqs 文件的内容,就能看到各种软中断类型和对应的次数

但是我们需要注意的是,/proc/softirqs文件里面软中断类型的次数,是系统运行以来的累积中断次数。对现在遇到的问题并没有多大的意义

所以我们需要看到的是这些中断次数的变化速率才是关键

这里我用到了 watch 命令,这个工具可以观察命令输出的变化情况

watch 命令可以定期运行一个命令来查看输出;如果再加上 -d 参数,还可以高亮出变化的部分,从高亮部分我们就可以直观看出,哪些内容变化得更快

$ watch -d cat /proc/softirqs
                    CPU0       CPU1
          HI:          0          0
       TIMER:    1083906    2368646
      NET_TX:         53          9
      NET_RX:    1550643    1916776
       BLOCK:          0          0
    IRQ_POLL:          0          0
     TASKLET:     333637       3930
       SCHED:     963675    2293171
     HRTIMER:          0          0
         RCU:    1542111    1590625

通过 /proc/softirqs 文件内容的变化情况,我们可以发现, TIMER(定时中断)、NET_RX(网络接收)、SCHED(内核调度)、RCU(RCU 锁)等这几个软中断都在不停变化

其中 NET_RX,也就是网络数据包接收软中断的变化速率最快。而其他几种类型的软中断,是保证 Linux 调度、时钟和临界区保护这些正常工作所必需的,所以它们有一定的变化倒是正常的

接下来,我们从网络接收的软中断入手继续分析排查,既然是网络接收类型的软中断过高,那就很有可能是网卡问题(eth0是外网网卡)

我们先看下网卡的驱动版本,是不是驱动版本问题,这里我用到了 ethtool 命令

$ ethtool -i eth0

从输出结果看到,网卡的驱动版本是正常的

(注:不同环境网卡的驱动版本不是千篇一律的,这里我是根据我本机生产环境上的网卡版本来判断的。还得具体环境具体分析)

驱动版本没有问题,我们接着看下eth0网卡的队列支持单队列还是多队列

$ tc qdisc show dev eth0

从输出的结果我们发现,网卡是支持多队列的,网卡多队列可以将不同的中断次数分发到不同的CPU上,也就是说可以由多块cpu分摊中断,而不是单单一颗cpu来“独自承受”

既然是多队列,但还是产生了单核软中断过高的问题,那么就很有可能是中断只分配到了一颗cpu上

排查到这里,原因基本也就排查出来了。

后面我找了负责这个的同事来处理,发现果真是中断只分配到了cpu4上,才导致了设备 cpu4 上的软中断使用率如此之高。

最后,我们只需要通过修改中断亲缘性设置,将多个cpu一起分担中断,问题就解决了。

总结

软中断CPU使用率升高是一种很常见的性能问题。虽然软中断的类型很多,但在实际生产环境中我们大多数遇到的还是网络收发类型的软中断,特别是网络接收的软中断

当我们发现设备单核软中断过高时,可以借用 top 、watch工具,以及查看 /proc/softirqs 文件内容来判断是哪种类型的软中断过高

找出是哪种类型的软中断使用过高后,再深入分析,找出根因

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

咸鱼Linux运维

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值