Linux性能优化知识点总结大全 · 实践+收藏版_linux系统优化的总结报告

为了做好运维面试路上的助攻手,特整理了上百道 【运维技术栈面试题集锦】 ,让你面试不慌心不跳,高薪offer怀里抱!

这次整理的面试题,小到shell、MySQL,大到K8s等云原生技术栈,不仅适合运维新人入行面试需要,还适用于想提升进阶跳槽加薪的运维朋友。

本份面试集锦涵盖了

  • 174 道运维工程师面试题
  • 128道k8s面试题
  • 108道shell脚本面试题
  • 200道Linux面试题
  • 51道docker面试题
  • 35道Jenkis面试题
  • 78道MongoDB面试题
  • 17道ansible面试题
  • 60道dubbo面试题
  • 53道kafka面试
  • 18道mysql面试题
  • 40道nginx面试题
  • 77道redis面试题
  • 28道zookeeper

总计 1000+ 道面试题, 内容 又全含金量又高

  • 174道运维工程师面试题

1、什么是运维?

2、在工作中,运维人员经常需要跟运营人员打交道,请问运营人员是做什么工作的?

3、现在给你三百台服务器,你怎么对他们进行管理?

4、简述raid0 raid1raid5二种工作模式的工作原理及特点

5、LVS、Nginx、HAproxy有什么区别?工作中你怎么选择?

6、Squid、Varinsh和Nginx有什么区别,工作中你怎么选择?

7、Tomcat和Resin有什么区别,工作中你怎么选择?

8、什么是中间件?什么是jdk?

9、讲述一下Tomcat8005、8009、8080三个端口的含义?

10、什么叫CDN?

11、什么叫网站灰度发布?

12、简述DNS进行域名解析的过程?

13、RabbitMQ是什么东西?

14、讲一下Keepalived的工作原理?

15、讲述一下LVS三种模式的工作过程?

16、mysql的innodb如何定位锁问题,mysql如何减少主从复制延迟?

17、如何重置mysql root密码?

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以点击这里获取!

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

pidstat -w 5 14时51分16秒 UID PID cswch/s nvcswch/s Command 14时51分21秒 0 1 0.80 0.00 systemd 14时51分21秒 0 6 1.40 0.00 ksoftirqd/0 14时51分21秒 0 9 32.67 0.00 rcu_sched 14时51分21秒 0 11 0.40 0.00 watchdog/0 14时51分21秒 0 32 0.20 0.00 khugepaged 14时51分21秒 0 271 0.20 0.00 jbd2/vda1-8 14时51分21秒 0 1332 0.20 0.00 argusagent 14时51分21秒 0 5265 10.02 0.00 AliSecGuard 14时51分21秒 0 7439 7.82 0.00 kworker/0:2 14时51分21秒 0 7906 0.20 0.00 pidstat 14时51分21秒 0 8346 0.20 0.00 sshd 14时51分21秒 0 20654 9.82 0.00 AliYunDun 14时51分21秒 0 25766 0.20 0.00 kworker/u2:1 14时51分21秒 0 28603 1.00 0.00 python3


* cswch 每秒自愿上下文切换次数 (进程无法获取所需资源导致的上下文切换)
* nvcswch 每秒非自愿上下文切换次数 (时间片轮流等系统强制调度)



vmstat 1 1 #首先获取空闲系统的上下文切换次数 sysbench --threads=10 --max-time=300 threads run #模拟多线程切换问题 vmstat 1 1 #新终端观察上下文切换情况 此时发现cs数据明显升高,同时观察其他指标: r列: 远超系统CPU个数,说明存在大量CPU竞争 us和sy列:sy列占比80%,说明CPU主要被内核占用 in列: 中断次数明显上升,说明中断处理也是潜在问题


说明运行/等待CPU的进程过多,导致大量的上下文切换,上下文切换导致系统的CPU占用率高



pidstat -w -u 1 #查看到底哪个进程导致的问题


从结果中看出是sysbench导致CPU使用率过高,但是pidstat输出的上下文次数加起来也并不多。分析sysbench模拟的是线程的切换,因此需要在pidstat后加-t参数查看线程指标。


另外对于中断次数过多,我们可以通过/proc/interrupts文件读取



watch -d cat /proc/interrupts


发现次数变化速度最快的是重调度中断(RES),该中断用来唤醒空闲状态的CPU来调度新的任务运行。分析还是因为过多任务的调度问题,和上下文切换分析一致。


#### 某个应用的CPU使用率达到100%,怎么办?


Linux作为多任务操作系统,将CPU时间划分为很短的时间片,通过调度器轮流分配给各个任务使用。为了维护CPU时间,Linux通过事先定义的节拍率,触发时间中断,并使用全局变了jiffies记录开机以来的节拍数。时间中断发生一次该值+1.


**CPU使用率**,除了空闲时间以外的其他时间占总CPU时间的百分比。可以通过/proc/stat中的数据来计算出CPU使用率。因为/proc/stat时开机以来的节拍数累加值,计算出来的是开机以来的平均CPU使用率,一般意义不大。可以间隔取一段时间的两次值作差来计算该段时间内的平均CPU使用率。**性能分析工具给出的都是间隔一段时间的平均CPU使用率,要注意间隔时间的设置。**


CPU使用率可以通过top 或 ps来查看。分析进程的CPU问题可以通过perf,它以性能事件采样为基础,不仅可以分析系统的各种事件和内核性能,还可以用来分析指定应用程序的性能问题。


perf top / perf record / perf report (-g 开启调用关系的采样)



sudo docker run --name nginx -p 10000:80 -itd feisky/nginx sudo docker run --name phpfpm -itd --network container:nginx feisky/php-fpm ab -c 10 -n 100 http://XXX.XXX.XXX.XXX:10000/ #测试Nginx服务性能


发现此时每秒可承受请求给长少,此时将测试的请求数从100增加到10000。在另外一个终端运行top查看每个CPU的使用率。发现系统中几个php-fpm进程导致CPU使用率骤升。


接着用perf来分析具体是php-fpm中哪个函数导致该问题。



perf top -g -p XXXX #对某一个php-fpm进程进行分析


发现其中sqrt和add\_function占用CPU过多, 此时查看源码找到原来是sqrt中在发布前没有删除测试代码段,存在一个百万次的循环导致。将该无用代码删除后发现nginx负载能力明显提升


#### 系统的CPU使用率很高,为什么找不到高CPU的应用?



sudo docker run --name nginx -p 10000:80 -itd feisky/nginx:sp sudo docker run --name phpfpm -itd --network container:nginx feisky/php-fpm:sp ab -c 100 -n 1000 http://XXX.XXX.XXX.XXX:10000/ #并发100个请求测试


实验结果中每秒请求数依旧不高,我们将并发请求数降为5后,nginx负载能力依旧很低。


此时用top和pidstat发现系统CPU使用率过高,但是并没有发现CPU使用率高的进程。


出现这种情况一般时我们分析时遗漏的什么信息,重新运行top命令并观察一会。发现就绪队列中处于Running状态的进行过多,超过了我们的并发请求次数5. 再仔细查看进程运行数据,发现nginx和php-fpm都处于sleep状态,真正处于运行的却是几个stress进程。


下一步就利用pidstat分析这几个stress进程,发现没有任何输出。用ps aux交叉验证发现依旧不存在该进程。说明不是工具的问题。再top查看发现stress进程的进程号变化了,此时有可能时以下两种原因导致:


* 进程不停的崩溃重启(如段错误/配置错误等),此时进程退出后可能又被监控系统重启;
* 短时进程导致,即其他应用内部通过exec调用的外面命令,这些命令一般只运行很短时间就结束,很难用top这种间隔较长的工具来发现


可以通过pstree来查找 stress的父进程,找出调用关系。



pstree | grep stress


发现是php-fpm调用的该子进程,此时去查看源码可以看出每个请求都会调用一个stress命令来模拟I/O压力。之前top显示的结果是CPU使用率升高,是否真的是由该stress命令导致的,还需要继续分析。代码中给每个请求加了verbose=1的参数后可以查看stress命令的输出,在中断测试该命令结果显示stress命令运行时存在因权限问题导致的文件创建失败的bug。


此时依旧只是猜测,下一步继续通过perf工具来分析。性能报告显示确实时stress占用了大量的CPU,通过修复权限问题来优化解决即可.


#### 系统中出现大量不可中断进程和僵尸进程怎么办?


##### 进程状态


* R Running/Runnable,表示进程在CPU的就绪队列中,正在运行或者等待运行;
* D Disk Sleep,不可中断状态睡眠,一般表示进程正在跟硬件交互,并且交互过程中不允许被其他进程中断;
* Z Zombie,僵尸进程,表示进程实际上已经结束,但是父进程还没有回收它的资源;
* S Interruptible Sleep,可中断睡眠状态,表示进程因为等待某个事件而被系统挂起,当等待事件发生则会被唤醒并进入R状态;
* I Idle,空闲状态,用在不可中断睡眠的内核线程上。该状态不会导致平均负载升高;
* T Stop/Traced,表示进程处于暂停或跟踪状态(SIGSTOP/SIGCONT, GDB调试);
* X Dead,进程已经消亡,不会在top/ps中看到。


对于不可中断状态,一般都是在很短时间内结束,可忽略。但是如果系统或硬件发生故障,进程可能会保持不可中断状态很久,甚至系统中出现大量不可中断状态,此时需注意是否出现了I/O性能问题。


僵尸进程一般多进程应用容易遇到,父进程来不及处理子进程状态时子进程就提前退出,此时子进程就变成了僵尸进程。大量的僵尸进程会用尽PID进程号,导致新进程无法建立。


##### 磁盘O\_DIRECT问题



sudo docker run --privileged --name=app -itd feisky/app:iowait ps aux | grep ‘/app’


可以看到此时有多个app进程运行,状态分别时Ss+和D+。其中后面s表示进程是一个会话的领导进程,+号表示前台进程组。


其中**进程组**表示一组相互关联的进程,子进程是父进程所在组的组员。**会话**指共享同一个控制终端的一个或多个进程组。


用top查看系统资源发现:1)平均负载在逐渐增加,且1分钟内平均负载达到了CPU个数,说明系统可能已经有了性能瓶颈;2)僵尸进程比较多且在不停增加;3)us和sys CPU使用率都不高,iowait却比较高;4)每个进程CPU使用率也不高,但有两个进程处于D状态,可能在等待IO。


分析目前数据可知:iowait过高导致系统平均负载升高,僵尸进程不断增长说明有程序没能正确清理子进程资源。


用dstat来分析,因为它可以同时查看CPU和I/O两种资源的使用情况,便于对比分析。



dstat 1 10 #间隔1秒输出10组数据


可以看到当wai(iowait)升高时磁盘请求read都会很大,说明iowait的升高和磁盘的读请求有关。接下来分析到底时哪个进程在读磁盘。


之前top查看的处于D状态的进程号,用pidstat -d -p XXX 展示进程的I/O统计数据。发现处于D状态的进程都没有任何读写操作。在用pidstat -d 查看所有进程的I/O统计数据,看到app进程在进行磁盘读操作,每秒读取32MB的数据。进程访问磁盘必须使用系统调用处于内核态,接下来重点就是找到app进程的系统调用。



sudo strace -p XXX #对app进程调用进行跟踪


报错没有权限,因为已经时root权限了。所以遇到这种情况,首先要检查进程状态是否正常。ps命令查找该进程已经处于Z状态,即僵尸进程。


这种情况下top pidstat之类的工具无法给出更多的信息,此时像第5篇一样,用perf record -d和perf report进行分析,查看app进程调用栈。


看到app确实在通过系统调用sys\_read()读取数据,并且从new\_sync\_read和blkdev\_direct\_IO看出进程时进行直接读操作,请求直接从磁盘读,没有通过缓存导致iowait升高。


通过层层分析后,root cause是app内部进行了磁盘的直接I/O。然后定位到具体代码位置进行优化即可。


##### 僵尸进程


上述优化后iowait显著下降,但是僵尸进程数量仍旧在增加。首先要定位僵尸进程的父进程,通过pstree -aps XXX,打印出该僵尸进程的调用树,发现父进程就是app进程。


查看app代码,看看子进程结束的处理是否正确(是否调用wait()/waitpid(),有没有注册SIGCHILD信号的处理函数等)。


**碰到iowait升高时,先用dstat pidstat等工具确认是否存在磁盘I/O问题,再找是哪些进程导致I/O,不能用strace直接分析进程调用时可以通过perf工具分析。**


**对于僵尸问题,用pstree找到父进程,然后看源码检查子进程结束的处理逻辑即可。**


#### CPU性能指标


* CPU使用率
* 用户CPU使用率, 包括用户态(user)和低优先级用户态(nice). 该指标过高说明应用程序比较繁忙.
* 系统CPU使用率, CPU在内核态运行的时间百分比(不含中断). 该指标高说明内核比较繁忙.
* 等待I/O的CPU使用率, iowait, 该指标高说明系统与硬件设备I/O交互时间比较长.
* 软/硬中断CPU使用率, 该指标高说明系统中发生大量中断.
* steal CPU / guest CPU, 表示虚拟机占用的CPU百分比.
* 平均负载

 理想情况下平均负载等于逻辑CPU个数,表示每个CPU都被充分利用. 若大于则说明系统负载较重.
* 进程上下文切换

 包括无法获取资源的自愿切换和系统强制调度时的非自愿切换. 上下文切换本身是保证Linux正常运行的一项核心功能. 过多的切换则会将原本运行进程的CPU时间消耗在寄存器,内核占及虚拟内存等数据保存和恢复上
* CPU缓存命中率

 CPU缓存的复用情况,命中率越高性能越好. 其中L1/L2常用在单核,L3则用在多核中


#### 性能工具


* 平均负载案例
* 先用uptime查看系统平均负载
* 判断负载在升高后再用mpstat和pidstat分别查看每个CPU和每个进程CPU使用情况.找出导致平均负载较高的进程.
* 上下文切换案例
* 先用vmstat查看系统上下文切换和中断次数
* 再用pidstat观察进程的自愿和非自愿上下文切换情况
* 最后通过pidstat观察线程的上下文切换情况
* 进程CPU使用率高案例
* 先用top查看系统和进程的CPU使用情况,定位到进程
* 再用perf top观察进程调用链,定位到具体函数
* 系统CPU使用率高案例
* 先用top查看系统和进程的CPU使用情况,top/pidstat都无法找到CPU使用率高的进程
* 重新审视top输出
* 从CPU使用率不高,但是处于Running状态的进程入手
* perf record/report发现短时进程导致 (execsnoop工具)
* 不可中断和僵尸进程案例
* 先用top观察iowait升高,发现大量不可中断和僵尸进程
* strace无法跟踪进程系统调用
* perf分析调用链发现根源来自磁盘直接I/O
* 软中断案例
* top观察系统软中断CPU使用率高
* 查看/proc/softirqs找到变化速率较快的几种软中断
* sar命令发现是网络小包问题
* tcpdump找出网络帧的类型和来源, 确定SYN FLOOD攻击导致


根据不同的性能指标来找合适的工具:


![](https://img-blog.csdnimg.cn/img_convert/15ef31bf312a89c9405549459fd0054e.png)


图片来自: www.ctq6.cn


在生产环境中往往开发者没有权限安装新的工具包,只能最大化利用好系统中已经安装好的工具. 因此要了解一些主流工具能够提供哪些指标分析.


![](https://img-blog.csdnimg.cn/img_convert/289d2102ea0328ba56292341b2b86490.png)


图片来自: www.ctq6.cn


先运行几个支持指标较多的工具, 如top/vmstat/pidstat,根据它们的输出可以得出是哪种类型的性能问题. 定位到进程后再用strace/perf分析调用情况进一步分析. 如果是软中断导致用/proc/softirqs


![](https://img-blog.csdnimg.cn/img_convert/dde2d8f6272a1ab358109bf86a667d34.png)


图片来自: www.ctq6.cn


#### CPU优化


* 应用程序优化
* 编译器优化: 编译阶段开启优化选项, 如gcc -O2
* 算法优化
* 异步处理: 避免程序因为等待某个资源而一直阻塞,提升程序的并发处理能力. (将轮询替换为事件通知)
* 多线程代替多进程: 减少上下文切换成本
* 善用缓存: 加快程序处理速度
* 系统优化
* CPU绑定: 将进程绑定要1个/多个CPU上,提高CPU缓存命中率,减少CPU调度带来的上下文切换
* CPU独占: CPU亲和性机制来分配进程
* 优先级调整:使用nice适当降低非核心应用的优先级
* 为进程设置资源显示: cgroups设置使用上限,防止由某个应用自身问题耗尽系统资源
* NUMA优化: CPU尽可能访问本地内存
* 中断负载均衡: irpbalance,将中断处理过程自动负载均衡到各个CPU上
* TPS、QPS、系统吞吐量的区别和理解
* QPS(TPS)
* 并发数
* 响应时间

 QPS(TPS)=并发数/平均相应时间
* 用户请求服务器
* 服务器内部处理
* 服务器返回给客户

 QPS类似TPS,但是对于一个页面的访问形成一个TPS,但是一次页面请求可能包含多次对服务器的请求,可能计入多次QPS
* QPS (Queries Per Second)每秒查询率,一台服务器每秒能够响应的查询次数.
* TPS (Transactions Per Second)每秒事务数,软件测试的结果.
* 系统吞吐量, 包括几个重要参数:


### 3内存


#### Linux内存是怎么工作的


##### 内存映射


大多数计算机用的主存都是动态随机访问内存(DRAM),只有内核才可以直接访问物理内存。Linux内核给每个进程提供了一个独立的虚拟地址空间,并且这个地址空间是连续的。这样进程就可以很方便的访问内存(虚拟内存)。


虚拟地址空间的内部分为内核空间和用户空间两部分,不同字长的处理器地址空间的范围不同。32位系统内核空间占用1G,用户空间占3G。64位系统内核空间和用户空间都是128T,分别占内存空间的最高和最低处,中间部分为未定义。


并不是所有的虚拟内存都会分配物理内存,只有实际使用的才会。分配后的物理内存通过内存映射管理。为了完成内存映射,内核为每个进程都维护了一个页表,记录虚拟地址和物理地址的映射关系。页表实际存储在CPU的内存管理单元MMU中,处理器可以直接通过硬件找出要访问的内存。


当进程访问的虚拟地址在页表中查不到时,系统会产生一个缺页异常,进入内核空间分配物理内存,更新进程页表,再返回用户空间恢复进程的运行。


MMU以页为单位管理内存,页大小4KB。为了解决页表项过多问题Linux提供了**多级页表**和**HugePage**的机制。


##### 虚拟内存空间分布


用户空间内存从低到高是五种不同的内存段:


* **只读段** 代码和常量等
* **数据段** 全局变量等
* **堆** 动态分配的内存,从低地址开始向上增长
* **文件映射** 动态库、共享内存等,从高地址开始向下增长
* **栈** 包括局部变量和函数调用的上下文等,栈的大小是固定的。一般8MB


##### 内存分配与回收


###### 分配


malloc对应到系统调用上有两种实现方式:


* **brk()** 针对小块内存(<128K),通过移动堆顶位置来分配。内存释放后不立即归还内存,而是被缓存起来。
* \*\*mmap()\*\*针对大块内存(>128K),直接用内存映射来分配,即在文件映射段找一块空闲内存分配。


前者的缓存可以减少缺页异常的发生,提高内存访问效率。但是由于内存没有归还系统,在内存工作繁忙时,频繁的内存分配/释放会造成内存碎片。


后者在释放时直接归还系统,所以每次mmap都会发生缺页异常。在内存工作繁忙时,频繁内存分配会导致大量缺页异常,使内核管理负担增加。


上述两种调用并没有真正分配内存,这些内存只有在首次访问时,才通过缺页异常进入内核中,由内核来分配


###### 回收


内存紧张时,系统通过以下方式来回收内存:


* 回收缓存:LRU算法回收最近最少使用的内存页面;
* 回收不常访问内存:把不常用的内存通过交换分区写入磁盘
* 杀死进程:OOM内核保护机制 (进程消耗内存越大oom\_score越大,占用CPU越多oom\_score越小,可以通过/proc手动调整oom\_adj)

 

echo -16 > /proc/$(pidof XXX)/oom_adj



##### 如何查看内存使用情况


free来查看整个系统的内存使用情况


top/ps来查看某个进程的内存使用情况


* **VIRT** 进程的虚拟内存大小
* **RES** 常驻内存的大小,即进程实际使用的物理内存大小,不包括swap和共享内存
* **SHR** 共享内存大小,与其他进程共享的内存,加载的动态链接库以及程序代码段
* **%MEM** 进程使用物理内存占系统总内存的百分比


#### 怎样理解内存中的Buffer和Cache?


**buffer是对磁盘数据的缓存,cache是对文件数据的缓存,它们既会用在读请求也会用在写请求中**


#### 如何利用系统缓存优化程序的运行效率


##### 缓存命中率


**缓存命中率**是指直接通过缓存获取数据的请求次数,占所有请求次数的百分比。**命中率越高说明缓存带来的收益越高,应用程序的性能也就越好。**


安装bcc包后可以通过cachestat和cachetop来监测缓存的读写命中情况。


安装pcstat后可以查看文件在内存中的缓存大小以及缓存比例



#首先安装Go export GOPATH=~/go export PATH=~/go/bin:$PATH go get golang.org/x/sys/unix go ge github.com/tobert/pcstat/pcstat


##### dd缓存加速



dd if=/dev/sda1 of=file bs=1M count=512 #生产一个512MB的临时文件 echo 3 > /proc/sys/vm/drop_caches #清理缓存 pcstat file #确定刚才生成文件不在系统缓存中,此时cached和percent都是0 cachetop 5 dd if=file of=/dev/null bs=1M #测试文件读取速度 #此时文件读取性能为30+MB/s,查看cachetop结果发现并不是所有的读都落在磁盘上,读缓存命中率只有50%。 dd if=file of=/dev/null bs=1M #重复上述读文件测试 #此时文件读取性能为4+GB/s,读缓存命中率为100% pcstat file #查看文件file的缓存情况,100%全部缓存


##### O\_DIRECT选项绕过系统缓存



cachetop 5 sudo docker run --privileged --name=app -itd feisky/app:io-direct sudo docker logs app #确认案例启动成功 #实验结果表明每读32MB数据都要花0.9s,且cachetop输出中显示1024次缓存全部命中


但是凭感觉可知如果缓存命中读速度不应如此慢,读次数时1024,页大小为4K,五秒的时间内读取了1024\*4KB数据,即每秒0.8MB,和结果中32MB相差较大。说明该案例没有充分利用缓存,怀疑系统调用设置了直接I/O标志绕过系统缓存。因此接下来观察系统调用.



strace -p $(pgrep app) #strace 结果可以看到openat打开磁盘分区/dev/sdb1,传入参数为O_RDONLY|O_DIRECT


这就解释了为什么读32MB数据那么慢,直接从磁盘读写肯定远远慢于缓存。找出问题后我们再看案例的源代码发现flags中指定了直接IO标志。删除该选项后重跑,验证性能变化。


#### 内存泄漏,如何定位和处理?


对应用程序来说,动态内存的分配和回收是核心又复杂的一个逻辑功能模块。管理内存的过程中会发生各种各样的“事故”:


* 没正确回收分配的内存,导致了泄漏
* 访问的是已分配内存边界外的地址,导致程序异常退出


##### 内存的分配与回收


虚拟内存分布从低到高分别是**只读段,数据段,堆,内存映射段,栈**五部分。其中会导致内存泄漏的是:


* 堆:由应用程序自己来分配和管理,除非程序退出这些堆内存不会被系统自动释放。
* 内存映射段:包括动态链接库和共享内存,其中共享内存由程序自动分配和管理


**内存泄漏的危害比较大,这些忘记释放的内存,不仅应用程序自己不能访问,系统也不能把它们再次分配给其他应用。** 内存泄漏不断累积甚至会耗尽系统内存.


##### 如何检测内存泄漏


预先安装systat,docker,bcc



sudo docker run --name=app -itd feisky/app:mem-leak sudo docker logs app vmstat 3


可以看到free在不断下降,buffer和cache基本保持不变。说明系统的内存一致在升高。但并不能说明存在内存泄漏。此时可以通过memleak工具来跟踪系统或进程的内存分配/释放请求



/usr/share/bcc/tools/memleak -a -p $(pidof app)


从memleak输出可以看到,应用在不停地分配内存,并且这些分配的地址并没有被回收。通过调用栈看到是fibonacci函数分配的内存没有释放。定位到源码后查看源码来修复增加内存释放函数即可.


#### 为什么系统的Swap变高


系统内存资源紧张时通过内存回收和OOM杀死进程来解决。其中可回收内存包括:


* 缓存/缓冲区,属于可回收资源,在文件管理中通常叫做文件页
* 在应用程序中通过fsync将脏页同步到磁盘
* 交给系统,内核线程pdflush负责这些脏页的刷新
* 被应用程序修改过暂时没写入磁盘的数据(脏页),要先写入磁盘然后才能内存释放
* 内存映射获取的文件映射页,也可以被释放掉,下次访问时从文件重新读取


对于程序自动分配的堆内存,也就是我们在内存管理中的匿名页,虽然这些内存不能直接释放,但是Linux提供了Swap机制将不常访问的内存写入到磁盘来释放内存,再次访问时从磁盘读取到内存即可。


##### Swap原理


Swap本质就是把一块磁盘空间或者一个本地文件当作内存来使用,包括换入和换出两个过程:


* 换出:将进程暂时不用的内存数据存储到磁盘中,并释放这些内存
* 换入:进程再次访问内存时,将它们从磁盘读到内存中


Linux如何衡量内存资源是否紧张?


* **直接内存回收** 新的大块内存分配请求,但剩余内存不足。此时系统会回收一部分内存;
* **kswapd0** 内核线程定期回收内存。为了衡量内存使用情况,定义了pages\_min,pages\_low,pages\_high三个阈值,并根据其来进行内存的回收操作。
* 剩余内存 < pages\_min,进程可用内存耗尽了,只有内核才可以分配内存
* pages\_min < 剩余内存 < pages\_low,内存压力较大,kswapd0执行内存回收,直到剩余内存 > pages\_high
* pages\_low < 剩余内存 < pages\_high,内存有一定压力,但可以满足新内存请求
* 剩余内存 > pages\_high,说明剩余内存较多,无内存压力

 pages\_low = pages\_min *5 / 4 pages\_high = pages\_min* 3 / 2


##### NUMA 与 SWAP


很多情况下系统剩余内存较多,但SWAP依旧升高,这是由于处理器的NUMA架构。


在NUMA架构下多个处理器划分到不同的Node,每个Node都拥有自己的本地内存空间。在分析内存的使用时应该针对每个Node单独分析



numactl --hardware #查看处理器在Node的分布情况,以及每个Node的内存使用情况


内存三个阈值可以通过/proc/zoneinfo来查看,该文件中还包括活跃和非活跃的匿名页/文件页数。


当某个Node内存不足时,系统可以从其他Node寻找空闲资源,也可以从本地内存中回收内存。通过/proc/sys/vm/zone\_raclaim\_mode来调整。


* 0表示既可以从其他Node寻找空闲资源,也可以从本地回收内存
* 1,2,4表示只回收本地内存,2表示可以会回脏数据回收内存,4表示可以用Swap方式回收内存。


##### swappiness


在实际回收过程中Linux根据/proc/sys/vm/swapiness选项来调整使用Swap的积极程度,从0-100,数值越大越积极使用Swap,即更倾向于回收匿名页;数值越小越消极使用Swap,即更倾向于回收文件页。


**注意:这只是调整Swap积极程度的权重,即使设置为0,当剩余内存+文件页小于页高阈值时,还是会发生Swap。**


##### Swap升高时如何定位分析



free #首先通过free查看swap使用情况,若swap=0表示未配置Swap #先创建并开启swap fallocate -l 8G /mnt/swapfile chmod 600 /mnt/swapfile mkswap /mnt/swapfile swapon /mnt/swapfile free #再次执行free确保Swap配置成功 dd if=/dev/sda1 of=/dev/null bs=1G count=2048 #模拟大文件读取 sar -r -S 1 #查看内存各个指标变化 -r内存 -S swap #根据结果可以看出,%memused在不断增长,剩余内存kbmemfress不断减少,缓冲区kbbuffers不断增大,由此可知剩余内存不断分配给了缓冲区 #一段时间之后,剩余内存很小,而缓冲区占用了大部分内存。此时Swap使用之间增大,缓冲区和剩余内存只在小范围波动 停下sar命令 cachetop5 #观察缓存 #可以看到dd进程读写只有50%的命中率,未命中数为4w+页,说明正式dd进程导致缓冲区使用升高 watch -d grep -A 15 ‘Normal’ /proc/zoneinfo #观察内存指标变化 #发现升级内存在一个小范围不停的波动,低于页低阈值时会突然增大到一个大于页高阈值的值


说明剩余内存和缓冲区的波动变化正是由于内存回收和缓存再次分配的循环往复。有时候Swap用的多,有时候缓冲区波动更多。此时查看swappiness值为60,是一个相对中和的配置,系统会根据实际运行情况来选去合适的回收类型.


#### 如何“快准狠”找到系统内存存在的问题


##### 内存性能指标


**系统内存指标**


* 已用内存/剩余内存
* 共享内存 (tmpfs实现)
* 可用内存:包括剩余内存和可回收内存
* 缓存:磁盘读取文件的页缓存,slab分配器中的可回收部分
* 缓冲区:原始磁盘块的临时存储,缓存将要写入磁盘的数据


**进程内存指标**


* 虚拟内存:5大部分
* 常驻内存:进程实际使用的物理内存,不包括Swap和共享内存
* 共享内存:与其他进程共享的内存,以及动态链接库和程序的代码段
* Swap内存:通过Swap换出到磁盘的内存


**缺页异常**


* 可以直接从物理内存中分配,次缺页异常
* 需要磁盘IO介入(如Swap),主缺页异常。此时内存访问会慢很多


##### 内存性能工具


根据不同的性能指标来找合适的工具:


![](https://img-blog.csdnimg.cn/img_convert/f05d85698cb9a3e01c842c9dfe7431dc.png)


图片来自: www.ctq6.cn


内存分析工具包含的性能指标:


![](https://img-blog.csdnimg.cn/img_convert/c01914c56649f8b334e58974951c7627.png)


图片来自: www.ctq6.cn


##### 如何迅速分析内存的性能瓶颈


通常先运行几个覆盖面比较大的性能工具,如free,top,vmstat,pidstat等


* 先用free和top查看系统整体内存使用情况
* 再用vmstat和pidstat,查看一段时间的趋势,从而判断内存问题的类型
* 最后进行详细分析,比如内存分配分析,缓存/缓冲区分析,具体进程的内存使用分析等


常见的优化思路:


* 最好禁止Swap,若必须开启则尽量降低swappiness的值
* 减少内存的动态分配,如可以用内存池,HugePage等
* 尽量使用缓存和缓冲区来访问数据。如用堆栈明确声明内存空间来存储需要缓存的数据,或者用Redis外部缓存组件来优化数据的访问
* cgroups等方式来限制进程的内存使用情况,确保系统内存不被异常进程耗尽
* /proc/pid/oom\_adj调整核心应用的oom\_score,保证即使内存紧张核心应用也不会被OOM杀死


###### vmstat使用详解


vmstat命令是最常见的Linux/Unix监控工具,可以展现给定时间间隔的服务器的状态值,包括服务器的CPU使用率,内存使用,虚拟内存交换情况,IO读写情况。可以看到整个机器的CPU,内存,IO的使用情况,而不是单单看到各个进程的CPU使用率和内存使用率(使用场景不一样)。



vmstat 2 procs -----------memory---------- —swap-- -----io---- -system-- ------cpu----- r b swpd free buff cache si so bi bo in cs us sy id wa st 1 0 0 1379064 282244 11537528 0 0 3 104 0 0 3 0 97 0 0 0 0 0 1372716 282244 11537544 0 0 0 24 4893 8947 1 0 98 0 0 0 0 0 1373404 282248 11537544 0 0 0 96 5105 9278 2 0 98 0 0 0 0 0 1374168 282248 11537556 0 0 0 0 5001 9208 1 0 99 0 0 0 0 0 1376948 282248 11537564 0 0 0 80 5176 9388 2 0 98 0 0 0 0 0 1379356 282256 11537580 0 0 0 202 5474 9519 2 0 98 0 0 1 0 0 1368376 282256 11543696 0 0 0 0 5894 8940 12 0 88 0 0 1 0 0 1371936 282256 11539240 0 0 0 10554 6176 9481 14 1 85 1 0 1 0 0 1366184 282260 11542292 0 0 0 7456 6102 9983 7 1 91 0 0 1 0 0 1353040 282260 11556176 0 0 0 16924 7233 9578 18 1 80 1 0 0 0 0 1359432 282260 11549124 0 0 0 12576 5495 9271 7 0 92 1 0 0 0 0 1361744 282264 11549132 0 0 0 58 8606 15079 4 2 95 0 0 1 0 0 1367120 282264 11549140 0 0 0 2 5716 9205 8 0 92 0 0 0 0 0 1346580 282264 11562644 0 0 0 70 6416 9944 12 0 88 0 0 0 0 0 1359164 282264 11550108 0 0 0 2922 4941 8969 3 0 97 0 0 1 0 0 1353992 282264 11557044 0 0 0 0 6023 8917 15 0 84 0 0 # 结果说明 - r 表示运行队列(就是说多少个进程真的分配到CPU),我测试的服务器目前CPU比较空闲,没什么程序在跑,当这个值超过了CPU数目,就会出现CPU瓶颈了。这个也和top的负载有关系,一般负载超过了3就比较高,超过了5就高,超过了10就不正常了,服务器的状态很危险。top的负载类似每秒的运行队列。如果运行队列过大,表示你的CPU很繁忙,一般会造成CPU使用率很高。 - b 表示阻塞的进程,这个不多说,进程阻塞,大家懂的。 - swpd 虚拟内存已使用的大小,如果大于0,表示你的机器物理内存不足了,如果不是程序内存泄露的原因,那么你该升级内存了或者把耗内存的任务迁移到其他机器。 - free 空闲的物理内存的大小,我的机器内存总共8G,剩余3415M。 - buff Linux/Unix系统是用来存储,目录里面有什么内容,权限等的缓存,我本机大概占用300多M - cache cache直接用来记忆我们打开的文件,给文件做缓冲,我本机大概占用300多M(这里是Linux/Unix的聪明之处,把空闲的物理内存的一部分拿来做文件和目录的缓存,是为了提高 程序执行的性能,当程序使用内存时,buffer/cached会很快地被使用。) - si 每秒从磁盘读入虚拟内存的大小,如果这个值大于0,表示物理内存不够用或者内存泄露了,要查找耗内存进程解决掉。我的机器内存充裕,一切正常。 - so 每秒虚拟内存写入磁盘的大小,如果这个值大于0,同上。 - bi 块设备每秒接收的块数量,这里的块设备是指系统上所有的磁盘和其他块设备,默认块大小是1024byte,我本机上没什么IO操作,所以一直是0,但是我曾在处理拷贝大量数据(2-3T)的机器上看过可以达到140000/s,磁盘写入速度差不多140M每秒 - bo 块设备每秒发送的块数量,例如我们读取文件,bo就要大于0。bi和bo一般都要接近0,不然就是IO过于频繁,需要调整。 - in 每秒CPU的中断次数,包括时间中断 - cs 每秒上下文切换次数,例如我们调用系统函数,就要进行上下文切换,线程的切换,也要进程上下文切换,这个值要越小越好,太大了,要考虑调低线程或者进程的数目,例如在apache和nginx这种web服务器中,我们一般做性能测试时会进行几千并发甚至几万并发的测试,选择web服务器的进程可以由进程或者线程的峰值一直下调,压测,直到cs到一个比较小的值,这个进程和线程数就是比较合适的值了。系统调用也是,每次调用系统函数,我们的代码就会进入内核空间,导致上下文切换,这个是很耗资源,也要尽量避免频繁调用系统函数。上下文切换次数过多表示你的CPU大部分浪费在上下文切换,导致CPU干正经事的时间少了,CPU没有充分利用,是不可取的。 - us 用户CPU时间,我曾经在一个做加密解密很频繁的服务器上,可以看到us接近100,r运行队列达到80(机器在做压力测试,性能表现不佳)。 - sy 系统CPU时间,如果太高,表示系统调用时间长,例如是IO操作频繁。 - id 空闲CPU时间,一般来说,id + us + sy = 100,一般我认为id是空闲CPU使用率,us是用户CPU使用率,sy是系统CPU使用率。 - wt 等待IO CPU时间


###### pidstat 使用详解


pidstat主要用于监控全部或指定进程占用系统资源的情况,如CPU,内存、设备IO、任务切换、线程等。


使用方法:


* pidstat –d interval times 统计各个进程的IO使用情况
* pidstat –u interval times 统计各个进程的CPU统计信息
* pidstat –r interval times 统计各个进程的内存使用信息
* pidstat -w interval times 统计各个进程的上下文切换
* p PID 指定PID


1、统计IO使用情况



pidstat -d 1 10 03:02:02 PM UID PID kB_rd/s kB_wr/s kB_ccwr/s Command 03:02:03 PM 0 816 0.00 918.81 0.00 jbd2/vda1-8 03:02:03 PM 0 1007 0.00 3.96 0.00 AliYunDun 03:02:03 PM 997 7326 0.00 1904.95 918.81 java 03:02:03 PM 997 8539 0.00 3.96 0.00 java 03:02:03 PM 0 16066 0.00 35.64 0.00 cmagent 03:02:03 PM UID PID kB_rd/s kB_wr/s kB_ccwr/s Command 03:02:04 PM 0 816 0.00 1924.00 0.00 jbd2/vda1-8 03:02:04 PM 997 7326 0.00 11156.00 1888.00 java 03:02:04 PM 997 8539 0.00 4.00 0.00 java


* UID
* PID
* kB\_rd/s: 每秒进程从磁盘读取的数据量 KB 单位 read from disk each second KB
* kB\_wr/s: 每秒进程向磁盘写的数据量 KB 单位 write to disk each second KB
* kB\_ccwr/s: 每秒进程向磁盘写入,但是被取消的数据量,This may occur when the task truncates some dirty pagecache.
* iodelay: Block I/O delay, measured in clock ticks
* Command: 进程名 task name


2、统计CPU使用情况



统计CPU pidstat -u 1 10 03:03:33 PM UID PID %usr %system %guest %CPU CPU Command 03:03:34 PM 0 2321 3.96 0.00 0.00 3.96 0 ansible 03:03:34 PM 0 7110 0.00 0.99 0.00 0.99 4 pidstat 03:03:34 PM 997 8539 0.99 0.00 0.00 0.99 5 java 03:03:34 PM 984 15517 0.99 0.00 0.00 0.99 5 java 03:03:34 PM 0 24406 0.99 0.00 0.00 0.99 5 java 03:03:34 PM 0 32158 3.96 0.00 0.00 3.96 2 ansible


* UID
* PID
* %usr: 进程在用户空间占用 cpu 的百分比
* %system: 进程在内核空间占用 CPU 百分比
* %guest: 进程在虚拟机占用 CPU 百分比
* %wait: 进程等待运行的百分比
* %CPU: 进程占用 CPU 百分比


**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化的资料的朋友,可以点击这里获取!](https://bbs.csdn.net/topics/618635766)**

**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

 0.00    3.96     0  ansible   03:03:34 PM     0      7110    0.00    0.99    0.00    0.99     4  pidstat   03:03:34 PM   997      8539    0.99    0.00    0.00    0.99     5  java   03:03:34 PM   984     15517    0.99    0.00    0.00    0.99     5  java   03:03:34 PM     0     24406    0.99    0.00    0.00    0.99     5  java   03:03:34 PM     0     32158    3.96    0.00    0.00    3.96     2  ansible   

  • UID
  • PID
  • %usr: 进程在用户空间占用 cpu 的百分比
  • %system: 进程在内核空间占用 CPU 百分比
  • %guest: 进程在虚拟机占用 CPU 百分比
  • %wait: 进程等待运行的百分比
  • %CPU: 进程占用 CPU 百分比

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以点击这里获取!

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值