JDK8之MetaspaceSize配置导致频繁FullGC

转载自:掘金网【小妍品品】-JDK8之MetaspaceSize配置导致频繁FullGC

前言

新系统上线,由于测试环境机器配置太低,所以单独找了一台预发机做接口压测,但是QPS达到30时候cpu就满了,简直慌了,新系统这么垃圾的么~

背景介绍

新的账务系统,角色定位是内部户机构账,所以根据不同的金融交易场次会有一次记账请求中存在多借多贷,也就是一次请求会出现给18个账户在一个事务中做记账处理,可想这里面会有多少要注意的坑,详细的不做展开

找问题

top 命令

在这里插入图片描述
因为这个接口实现上多次用到数据库悲观锁select for update,最初还以为是代码程序性能低导致的。但是看下qps才30… 凉了~

top -Hp pid 发现下面均是某个进程cpu使用率高
ps -mp pid -o THREAD,tid,time

在这里插入图片描述
找到该pid下cpu占用最高的tid,然后通过 jstack pid | grep tid -A 30 找到对应的进程信息

printf ‘%x\n’ 12149 tid 转换16进制

在这里插入图片描述

jstack pid | grep tid 查看该线程信息。好了,不用往下瞅了,FullGC的进程~

在这里插入图片描述

jstat -gcutil pid 1000 10

在这里插入图片描述
这时候看到新生代、老年代的占用率都非常低,但是还是在不断的FullGC (这时候其实是知识点的缺失,平常没有过于去关注M、CCS这两列的值,想当然认为这是某项指标的适用率,因为占比90%左右,所以没有太在意~) ,单单看新老代的数据不应该会触发FullGC啊!!!

然后稀里糊涂的把堆详细信息都给打出来了~,看下依旧不是这块问题(使用率确实非常低)。

jmap -heap pid

 
Heap Configuration:
   MinHeapFreeRatio         = 40
   MaxHeapFreeRatio         = 70
   MaxHeapSize              = 1073741824 (1024.0MB)
   NewSize                  = 235929600 (225.0MB)
   MaxNewSize               = 235929600 (225.0MB)
   OldSize                  = 837812224 (799.0MB)
   NewRatio                 = 2
   SurvivorRatio            = 8
   MetaspaceSize            = 134217728 (128.0MB)
   CompressedClassSpaceSize = 125829120 (120.0MB)
   MaxMetaspaceSize         = 134217728 (128.0MB)
   G1HeapRegionSize         = 0 (0.0MB)

Heap Usage:
New Generation (Eden + 1 Survivor Space):
   capacity = 212336640 (202.5MB)
   used     = 0 (0.0MB)
   free     = 212336640 (202.5MB)
   0.0% used
Eden Space:
   capacity = 188743680 (180.0MB)
   used     = 0 (0.0MB)
   free     = 188743680 (180.0MB)
   0.0% used
From Space:
   capacity = 23592960 (22.5MB)
   used     = 0 (0.0MB)
   free     = 23592960 (22.5MB)
   0.0% used
To Space:
   capacity = 23592960 (22.5MB)
   used     = 0 (0.0MB)
   free     = 23592960 (22.5MB)
   0.0% used
concurrent mark-sweep generation:
   capacity = 837812224 (799.0MB)
   used     = 95685920 (91.25320434570312MB)
   free     = 742126304 (707.7467956542969MB)
   11.420926701589877% used

41909 interned Strings occupying 5041832 bytes.

还在一脸懵逼 ··· ···

这时候有个小伙伴提到了元空间内存满了,恍惚,回过头去查了下 M、CCS 明明是93.19%、90.48% 怎么就满了呢??

那么jstat -gcutil 命令展示列的 M、CCS 到底是啥? 好吧把定义贴出来:

column {
    header "^M^"  /* Metaspace - Percent Used */
    data (1-((sun.gc.metaspace.capacity - sun.gc.metaspace.used)/sun.gc.metaspace.capacity)) * 100
    align right
    width 6
    scale raw
    format "0.00"
  }
  column {
    header "^CCS^"    /* Compressed Class Space - Percent Used */
    data (1-((sun.gc.compressedclassspace.capacity - sun.gc.compressedclassspace.used)/sun.gc.compressedclassspace.capacity)) * 100
    align right
    width 6
    scale raw
    format "0.00"
  }

也就是说M是表示metaspace的使用百分比??事实证明并非如此~
通过jstat -gccapacity pid 看下具体的metaspace空间值,如下图:

jstat -gccapacity pid

在这里插入图片描述
MC空间大小是131072KB=128M 然后通过 jstat -gc pid 发现 MC(元空间大小)、MU(元空间使用大小)两列的值居然都不是是131072(此处没截图)。

说明:下面两张图是预发环境配置修改后的数值,跟当时定位问题时候数值不一样,此处为了说明 MC\MU并不是jdk的环境变量配置的MetaspaceSize 。并且使用jstat -gcutil执行出来的结果M 的百分比并不代表触发 FullGC的阈值~

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

后来通过网上找到说jdk的环境变量的配置-XX:MetaspaceSize=128m 这才是触发元空间FullGC的条件,对比了下线上分配百分比,所以先找到运维把预发环境的环境变量-XX:MetaspaceSize=256m -XX:MaxMetaspaceSize=256m部分 都配置成256m(至于为啥是256,明天可以根环境据修改后的压测分时数据再做下说明),按照原来的并变量发数再压一次, 果然没有再出现堆使用率很低并且还在不配置停FullGC的现象。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值