项目场景:
本地向kafka中生产数据,flink程序分流处理时,报错java.lang.OutOfMemoryError: Java heap space问题描述:
本地向kafka中生产数据,flink程序分流处理时,在某个tag下进行数据封装时,一直报错java.lang.OutOfMemoryError: Java heap space,根据报错信息发现是在从数据库中查询数据时导致内内存溢出,在JVM中如果98%的时间是用于GC且可用的 Heap size 不足2%的时候将抛出此异常信息原因分析:
JVM堆的设置是指java程序运行过程中JVM可以调配使用的内存空间的设置,JVM在启动的时候会自动设置Heap size的值,其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)是物理内存的1/4。可以利用JVM提供的-Xmn -Xms -Xmx等选项可进行设置。如果Heap Size设置偏小,除了这些异常信息外,还会发现程序的响应速度变慢了。GC占用了更多的时间,而应用分配到的执行时间较少。
解决方案:
所以在idea中进行如下设置即可解决:
-Xms512m
-Xmn512m
-Xmx1g
-XX:ReservedCodeCacheSize=240m
-XX:MaxMetaspaceSize=512m
-XX:+UseG1GC
-XX:SoftRefLRUPolicyMSPerMB=50
-ea
-Dsun.io.useCanonCaches=false
-Djava.net.preferIPv4Stack=true
-Djdk.http.auth.tunneling.disabledSchemes=""
-XX:+HeapDumpOnOutOfMemoryError
-XX:-OmitStackTraceInFastThrow