java服务端问题排查_目前最全的 Java 服务问题排查套路

问题分类:

CPU问题

内存问题(GC问题、内存泄漏、 OOM,Coredump 等)

I/O问题

问题排查工具箱:

系统级别的工具:

top:查看系统/

p

gperftools:一个性能分析工具,可以用于内存泄漏、cpu性能检测等。

g

iostat:用来动态监视系统的磁盘操作活动。

iotop:界面类似于top, 但是监视Linux的磁盘I / O的使用细节。

vmstat:可实时动态监视

netstat: 各种网络相关信息,如网络连接,路由表,接口状态 。

dstat: 可以取代vmstat,iostat,netstat和ifstat这些命令的多功能

Java层面的命令:

Jps:查看Java进程。

Jstat: JVM

Jinfo:查看运行中的Java程序的运行环境

Jstack:查看 JVM中当前所有

J

Jmap:查看JVM进程的的堆内内存占用情况,是堆内内存定位

VJmap:唯品会开发的工具,分代版的jmap,但仅仅适用于CMS GC。

Btrace:可以在不重启服务时,动态追踪程序

Arthas:功能非常强大的Java诊断工具;可以做到动态跟踪

MAT(Memory Analyzer):JVM内存、线程分析工具,能够对给出内存分析报告。

GCLogViewer:GC log趋势分析工具,能够检测内存泄露及日志比较。

JProfiler:Java性能瓶颈分析工具,分析 CPU,Thread,Memory功能尤其强大,是做

常见问题分析步骤:

CPU问题:

排查思路:一般情况下可以直接使用top命令,查看

例子: CPU上下文切换导致服务雪崩 。

内存问题:

排查思路:一般情况下,进程coredump的时候都会留下coredump文件,coredump文件的存储位置

例子: 如何定位Java程序coredump的位置

OOM(out of memory):

oom就是内存不足,jvm中内存不足有以下三种:

Exception in thread "main"

解决办法:很多资料说可以通过调整Xss参数可解决问题,事实上系统采用的延迟分配,所有系统并不会给每个线程都分配Xss的真实内存,是按需分配的。

出现这种情况至少95%情况是因为使用max_threads、 max_user_processes过小。

Exception in thread "main" java.lang.OutOfMemoryError: Java heap space—堆的内存占用已经达到-Xmx设置的最大值。

解决办法:调整-Xmx的值,或者存在内存泄漏,按照内存泄漏的思路查找。

Caused by: java.lang.OutOfMemoryError: PermGen space—方法区的内存占用已经达到-XX:MaxPermSize设置的最大值。

解决办法:调整-XX:MaxPermSize的值。

StackOverflow:

Exception in thread "main" java.lang.StackOverflowError — 线程栈需要的内存大于Xss值。

解决办法:调整 Xss 的值。

堆内内存泄漏:

查看gc情况是否正常,堆内内存泄漏总是和gc异常相伴随的。

jmap -dump:live,file=mem.map pid把内存dump下来。

通过mat(memory analyzer)分析内存对象及调用链,发现无法回收的对象。

堆外内存泄漏:

思路:堆外内存一般分为使用unsafe或者ByteBuffer申请的和使用native方式申请的。比如对于 unsafe典型应用场景就是JavaCPP申请堆外内存(底层就是native方式)。对于堆外内存泄漏一般gperftools+btrace这组组合工具基本上都能搞定,如果不行的话,可能就需要系统底层工具了,比如 strace等。

另外,虽然堆外内存不属于堆内,但是其引用在堆内;有时候在直接查看堆外不方便或者没有结论时,可以查看堆内是否有异常对象。

例子:

GC问题排查:

young gc单次

排查思路:根据gc log(G1),查看耗时是在Root Scanning、Object Copy、Ref Proc等哪 个阶段。如果Ref Proc耗时久,则需要关注引用相关的对象;如果Root Scanning耗时久,则需要关注线程数、跨代引用等。Object Copy则需要关注对象

例子:线上把两个服务合并成一个服务之后,发现上游服务超时变多,服务整体可用性降低。通过查看监控发现young gc时间变高很多,young gc日志如下:

319f82d163420d2a195ce0a8f385ba63.png

和其他项目对比,发现Root Scanning的时间较高,查看项目监控发现线程数太多,高达4000多个。于是通过

931313e851e1c1ab77b7b8cb43ac9779.png

young gc频率太高

排查思路:查看-Xmn、-XX:SurvivorRatio等参数设置是否合理,能否通过调整jvm参数到达目的;如果参数正常,但是young gc频率还是太高,需要使用Jmap/MAT等工具参看业务代码是否生成的对象是否合理。

例子:有一次在项目接入部分用户全链路日志的时候,发现young gc频率飙升了很多。使用Jmap发现JSON对象,发现相关的代码如下:

6a695ce7e9a4b5c9d94377cbf8e2d279.png

从代码中我们可以看出,不管是否需要输入全链路日志都会生成JSON对象,很明显不符合预期。

full gc单次时间太长

排查思路: 查看old的区域配置是否过大,过大可以适当调小一些。如果是cms,可以查看是在Inital mark阶段时间太久Re mark阶段,如果是 Re mark阶段 可以添加-XX:+CMSScavengeBeforeRemark参数。如果服务太在意full gc时间,可以采用主动full gc的方式,具体的实现原理可以参考: 谈谈项目中主动full gc的一些问题 。

full gc频率太高

排查思路:这种情况应该是java最常遇到,也是情况最为复杂的。其实主要思路还是首先要看出发full/major gc的原因,比如对于cms gc,一般情况下发生的条件,就是perm或者old到达阈值。如果是old区域主要还是要看为什么对象会那么快晋升到老年代。如果配置的是cms,发生的确实full gc,就需要查看满足哪种条件的full gc,找出具体的原因。

例子: Redis

排查思路:直接使用 iotop能够直接查看哪些线程在做IO,然后在用

问题排查的方法论

一般Java服务发生问题可能伴随着多种现象,比如:cpu飙升、gc飙升等问题,这时候我们必须要遵循 “ 现象-问题-原因-方案 ”这个步骤去解决问题。

列举所有异常现象。比如:服务响应时间飙升、cpu飙升、full gc飙升;

列举所有的问题。步骤一 中所有的异常现象不一定都有问题,比如现象A导致了现象B,那么我们应该现象A是问题,现象B是结果,不是我们问题查找的主力方向。

查找原因。步骤二中的问题,有难易程度,比如cpu飙升就比full gc飙升问题容易排查。所以这步中我们先按照从易到难的程度排查。

原因确定之后,就可以给出具体解决方案,然后验证它。

例子: 服务响应时间飙升问题排查记

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值