生产某台服务出现频繁fullgc,一看Prometheus监控,老年代内存一看就很有问题,突然陡峭的曲线,就像房价一样。
导出dump文件到本地查看,有个byte对象都是10M大小,占了内存的80%以上,简单一看是http请求的信息,事情似乎有点眉目。
再看GC根谁持有了byte[]数组的引用。
这符合之前的猜测,是tomcat的线程在处理过程中分配了10M的buffer在堆上。至此,马上可以想到一定是什么参数设置的不合理导致了这种情况,一般而言tomcat不可能为每一个请求分配如此大的buffer。
检查代码里是否有tomcat或服务器相关配置,看到有这么一个配置:
max-http-header-size: 10000000
至此,基本已经确定就是这个不合理的最大http请求头参数导致的问题。
可以打开线程视图,搜索一下tomcat的工作线程,发现线程数量的确很多有401个,但是也只是800的一半。
另外,发现除了有10008192字节的数组还有10000000字节的数组,查看引用路径可以看到这个正好是10M的数组是output buffer,区别于之前看到的input buffer
本地验证:
本地启动用visualVM监控,jmeter压测了一波,重现了这个陡峭的曲线。
修改配置max-http-header-size:4096后,曲线变得正常。