JVM线上问题解决整理

JVM服务问题排查:JVM服务问题排查_左手-CSDN博客

一让人难以忘怀的排查频繁 Full GC 过程:https://www.iteye.com/blog/caogen81-1513345

线上 FullGC 频繁的排查:线上FullGC频繁排查-druid_Rocky的博客-CSDN博客_full gc排查

JVM线上应用故障排查:【JVM】线上应用故障排查 - Mr.Ming2 - 博客园高CPU占用 一个应用占用CPU很高,除了确实是计算密集型应用之外,通常原因都是出现了死循环。 根据top命令,发现PID为28555的Java进程占用CPU高达200%,出现故障。 通过ps auxhttps://www.cnblogs.com/Dhouse/p/7839810.html 

一次 JVM 中 FullGC 问题排查过程:

https://www.iteye.com/blog/iamzhongyong-1830265

JVM 内存溢出导致的 CPU 过高问题排查案例:JVM内存溢出导致的CPU过高问题排查案例_nielinqi520的博客-CSDN博客_排查jvm内存溢出 

JVM 内存溢出导致的 CPU 过高问题排查案例:JVM内存溢出导致的CPU过高问题排查案例_nielinqi520的博客-CSDN博客_排查jvm内存溢出问题背景:近期针对某接口做压力测试的过程中发现,某接口在用户量3千左右,并且业务没有对外开放,CPU一直居高不下。分析:初步怀疑开发人员逻辑控制不严谨, 导致死循环,因为业务量不大,用户量不大,不可能出现高并发。 1.通过jstack查找出对应执行线程是Vm Thread 线程,初步怀疑是频繁的GC导致cpu过高。 2.查看堆栈信息 jmap -heap 16190https://blog.csdn.net/nielinqi520/article/details/78455614 

一个java内存泄露的排查案例:一个java内存泄漏的排查案例_aasgis6u的专栏-CSDN博客_java内存泄漏排查这是个比较典型的java内存使用问题,定位过程也比较直接,但对新人还是有点参考价值的,所以就纪录了一下。下面介绍一下在不了解系统代码的情况下,如何一步步分析和定位到具体代码的排查过程(以便新人参考和自己回顾) 初步的现象业务系统消费MQ中消息速度变慢,积压了200多万条消息,通过jstat观察到业务系统fullgc比较频繁,到最后干脆OOM了:进一步分析既https://blog.csdn.net/aasgis6u/article/details/54928744 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值