系统优化总结—系统层面

原创: 王亚普 亚普的技术轮子 1周前

系统优化总结

之前组内一位大佬分享了一些关于系统性能优化方面的干货,这里我将它整理成文并且加入自己平时常用的一些工具和技巧。由于关于系统性能优化涉及的内容非常多,我会分几篇文章来分享。这次分享下定位系统层面问题的常用方法。

系统性能定义

Throughout 吞吐量  (系统每秒钟可以处理的请求数)

Latency 延迟 (系统处理一个请求的延迟)

Usage 资源利用率

吞吐量和延迟的关系

吞吐量越高,延迟会越大。因为请求量过大,系统太繁忙,所以响应时间会降低。

延迟越小,能支持的吞吐量会越高。因为延迟短说明处理速度快,就可以处理更多的请求。

异步化可以提高系统的吞吐量的灵活性,但是不会获得更快的响应时间。

系统性能压测的常用工具

tcpdump

1. 常用参数:

-i:指定需要的网

-s:抓取数据包时默认抓取长度为68字节,加上-s 0后可以抓到完整的数据包

-w:监听的数据包写入指定的文件

2. 示例

tcpdump-i eth1 host10.1.1.1// 抓取所有经过eth1,目的或源地址是10.1.1.1的网络数据包

tcpdump -i eth1 src host10.1.1.1// 源地址

tcpdump -i eth1 dst host10.1.1.1// 目的地址

如果想使用wireshark分析tcpdump的包,需要加上是 -s 参数:

tcpdump -i eth0 tcpandport80-s0-w traffic.pcap

tcpcopy——线上引流压测

tcpcopy是一种请求复制工具,用于实时和离线回放,它可以将线上流量拷贝到测试机器,实时模拟线上的真实环境,达到程序不上线的情况下承担线上真实流量的测试。实战演习的必备工具。

a. tcpdump录制pace文件

tcpdump -i eth0 -w online.pcap tcpandport80

b. 流量回放

tcpcopy -x80-10.1.x.x:80-i traffic.pcap

tcpcopy -x80-10.1.x.x:80-a2-i traffic.pcap// 离线回放加速2倍

c. 引流模式

tcpcopy -x80-10.1.x.x:80-r20// 20%引流

tcpcopy -x80-10.1.x.x:80-n3// 放大三倍引流

wrk & ApacheBench  & Jmeter & webbench

个人非常推荐wrk,轻量且压测结果准确,结合Lua脚本可以支持更复杂的测试场景。

压测示例:4个线程来模拟1000个并发连接,整个测试持续30秒,连接超时30秒,打印出请求的延迟统计信息。

> wrk -t4 -c1000 -d30s -T30s --latency http://www.baidu.com

Running30stest @ http://www.baidu.com

4threads and1000connections

Thread Stats   Avg      Stdev     Max   +/- Stdev

Latency1.71s3.19s26.51s89.38%

Req/Sec15.8310.5960.0066.32%

Latency Distribution

50%434.52ms

75%1.70s

90%5.66s

99%14.38s

1572requests in30.09s,26.36MB read

Requests/sec:52.24

Transfer/sec:0.88MB

更多参数帮助信息:

> wrk--help

Usage: wrk  

Options:

-c,--connections   Connections to keep open

-d,--duration      Duration of test

-t,--threads       Number of threads to use

-s,--script        Load Lua script file

-H,--header        Add header to request

--latency          Print latency statistics

--timeout       Socket/request timeout

-v,--version          Print version details

Numeric arguments may include a SI unit (1k,1M,1G)

Time arguments may include atimeunit (2s,2m,2h)

定位性能瓶颈

可以从以下几个方面衡量系统的性能:

应用层面

系统层面

JVM层面

Profiler

应用层面

应用层面的性能指标:

QPS

响应时间,95、99线等。

成功率

系统层面

系统层面指标有Cpu、内存、磁盘、网路等,推荐用一个犀利的命令查询系统性能情况:

dstat -lcdngy

6441399-e5269d86dfbb8462

dstat非常强大,可以实时的监控cpu、磁盘、网络、IO、内存等使用情况。

安装方法

yum install -y dstat

功能说明

-c:显示CPU系统占用,用户占用,空闲,等待,中断,软件中断等信息。

-C:当有多个CPU时候,此参数可按需分别显示cpu状态,例:-C 0,1 是显示cpu0和cpu1的信息。 

-d:显示磁盘读写数据大小。 -D hda,total:include hda and total。 

-n:显示网络状态。 -N eth1,total:有多块网卡时,指定要显示的网卡。 

-l:显示系统负载情况。 

-m:显示内存使用情况。 

-g:显示页面使用情况。 

-p:显示进程状态。 

-s:显示交换分区使用情况。 

-S:类似D/N。 

-r:I/O请求情况。 

-y:系统状态。 

--ipc:显示ipc消息队列,信号等信息。 

--socket:用来显示tcp udp端口状态。 

-a:此为默认选项,等同于-cdngy。 

-v:等同于 -pmgdsc -D total。 

--output 文件:此选项也比较有用,可以把状态信息以csv的格式重定向到指定的文件中,以便日后查看。例:dstat --output /root/dstat.csv & 此时让程序默默的在后台运行并把结果输出到/root/dstat.csv文件中。    

Cpu

使用率:Cpu是最重要的资源,如果CPU在等待,也会导致Cpu高使用率。

CPU利用率 = 1 - 程序占用cpu时间/程序总的运行时间

用户时间/内核时间:大致判断应用是计算密集型还是IO密集型。

CPU花在用户态代码的时间称为用户时间,而执行内核态代码的时间称为内核时间。内核时间主要包括系统调用,内核线程和中断的时间。当在整个系统范围内进行测量时,用户时间和内核时间之比揭示了运行的负载类型。计算密集型应用会把大量时间花在用户态代码上,用户时间/内核时间之比接近99/1。这样的例子有图像处理,数据分析等。I/O密集型应用的系统调用频率较高,通过执行内核代码进行I/O操作。一个进行网络I/O的Web服务器的用户/内核时间比大约为70/30。

负载load:在特定时间间隔内运行队列中的平均进程数。每个CPU都有一个运行队列,队列里存放着已经就绪,等待被CPU执行的线程。理想状态下,希望负载平均值小于等于Cpu核数。

6441399-824e43a34bea8738

Cpu使用率和load的区别:

负载均值用来估量CPU利用率的发展趋势,而不是某一时刻的状况。

负载均值包括所有CPU的需求,而不仅仅是在测量时活跃的。

磁盘

磁盘空间:没有空间会导致程序无法启动或者报错。

du -sh//查看当前文件夹下所有文件大小

df -hl//以磁盘分区为单位查看文件系统

有时候linux服务器的系统日志文件过大导致磁盘使用率过高,推荐两种清理方式:

sudo /dev/null > /var/log/**.log//删除指定的较大日志文件,速度快

sudo find /var/log/ -typef -mtime +30 -execrm -f {} \  //删除30天之前的日志文件

磁盘权限:没有权限会导致程序无法启动或者报错。

ll/yourdir

磁盘性能测试

ddif=/dev/zeroof=output.file bs=10M count=1

io吞吐、iowait

这里重点说下这两个因素,大量的磁盘读写以及过高的iowait往往意味着磁盘可能是瓶颈。实际上iowait并不能反映磁盘成为性能瓶颈,它实际测量的是cpu的时间:

%iowait = (cpu idletime)/(all cputime)

所以唯一定位磁盘成为性能瓶颈的直接方法还是看read/write时间。下面我们着重介绍下如何定位io问题。

a. 宏观确定是否是io的问题:top命令,可以从Cpu这一行看出浪费在I/O Wait上的CPU百分比;数值越高代表越多的CPU资源在等待I/O权限。

6441399-adc5dc1d73a575f0

b. 确定具体磁盘问题:iostat

6441399-b2a69247fc20eaf8

%util直观地反应可哪一块磁盘正在被写入,反应了设备的繁忙程度。每毫秒读写请求(rrqm/s wrqm/s)以及每秒读写(r/s w/s)对排查问题也提供了很多有用的信息。

c. 确定具体进程:简单粗暴的iotop直观地反映了哪些进程是导致io问题的罪魁祸首。

6441399-31fe2dd83fd73133

d. ps判断进程是否等待IO一样强大

众所周知,ps命令为我们提供了内存、cpu以及进程状态等信息,根据进程状态可以很容易查到正在等待IO的进程信息。

这里简单说下linux进程的几种状态:

R (TASK_RUNNING),可执行状态。

S (TASK_INTERRUPTIBLE),可中断的睡眠状态。

D (TASK_UNINTERRUPTIBLE),不可中断的睡眠状态。

T (TASK_STOPPED or TASK_TRACED),暂停状态或跟踪状态。

Z (TASK_DEAD – EXIT_ZOMBIE),退出状态,进程成为僵尸进程。

X (TASK_DEAD – EXIT_DEAD),退出状态,进程即将被销毁。

其中等待I/O的进程状态一般是"uninterruptible sleep"即D状态,D状态以及R状态进程算为运行队列之中,所以D状态进程过多也会导致系统load偏高,有兴趣可以看下linux load的计算原理。

查看D状态进程:

>forxin`seq 1 1 10`;dops -eo state,pid,cmd | grep"^D";echo"--------"; sleep 5;done

D 13389 /usr/libexec/gcc/x86_64-redhat-linux/4.4.7/cc1 -quiet -I../../include/cat -I../ -I. -dD message_sender.c -quiet -dumpbase message_sender.c -mtune=generic -auxbase message_sender -ggdb3 -O2 -O0 -o /tmp/ccivsNPE.s

根据proc伪文件系统获取io相关信息:

> cat /proc/pid/io

rchar: 548875497

wchar: 270446556

syscr: 452342

syscw: 143986

read_bytes: 253100032

write_bytes: 24645632

cancelled_write_bytes: 3801088

e. 确定哪个文件频繁读写:lsof -p pid

6441399-a953bc04137ddcb0

网络

1. nestat

netstat -nt 查看tcp相关连接状态、连接数以及发送队列和接收队列

6441399-ccf58fd72b7170ec

关于tcp的状态需要大家熟悉三次握手和四次挥手的过程,这里先列出tcp的全部状态。

客户端:SYN_SENT、FIN_WAIT1、FIN_WAIT2、CLOSING、TIME_WAIT

服务端:LISTEN、SYN_RCVD、CLOSE_WAIT、LAST_ACK

Common:ESTABLISHED、CLOSED

Tcp状态变化图(摘自网络):

6441399-d9137f7ecdb8f50a

关于tcp状态的几点说明:

正常的连接应该是ESTABLISHED状态,如果存在大量的SYN_SENT的连接,则需要看下防火墙规则。

如果Recv-Q或者Send-Q持续有大量包存在,意味着连接存在瓶颈或者程序存在bug。

2. 一些其他常用技巧

关于netstat还有很多有用的技巧,这里列出平时比较常用的:

netstat -nap |grepport 显示使用该端口的所有进程id

netstat -nat |awk'{print $6}'|sort|uniq -c|sort-rn 查询全部状态并排序

awk'{print $1}'access.log |sort|uniq -c|sort-nr|head -10分析access.log获取访问做多的top n的ip地址

netstat -nat |grep"10.1.1.1:8080"|awk'{print $5}'|awk -F:'{print $1}'|sort|uniq -c|sort-nr|head -20连接某服务器最多的top n的ip地址

netstat -s如果重传的包持续增加,那么很大可能网卡存在问题

JVM

定位问题的杀手锏——线程堆栈

1. 获取线程堆栈的步骤:

ps -ef | grep java

sudo -u nobody jstack> /tmp/jstack.

小技巧:jstack信息是某个时刻的堆栈信息,有时间仅仅一个jstack并不能分析出问题所在,可以适当多几次jstack,然后进行对比分析。

2. 如何从线程堆栈中找到本地线程对应的id

6441399-29f66cfea30a516a

nid=native thread id,特殊的是nid使用十六进制标识,本地线程id是十进制标识,所以通过进制换算就可以讲两者对应起来。

16进制和10进制的互换:

printf%d0x1b40

printf"0x%x"6976

3. Cpu消耗高的分析方法

a. 找出对应的java进程pid:

ps-ef | grep java

b. 找出java进程中最消耗cpu的线程:

top -H -p

将找出的线程id转换为16进制

jstack获取java的线程堆栈

根据16进制的id从线程堆栈中找到相关的堆栈信息

说明:线程堆栈中可以看出对应线程执行的是Java代码还是Native method

找不到对应的线程堆栈?

执行的Native method是重新创建的线程。

代码bug,堆内存耗完,jvm不断执行full gc。

jvm自身bug

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值