有一个weblogic服务,半小时产生了17G的server日志,正常的话其实只有几兆,直接导致服务不可用。这么大的日志,如何分析呢?最好是借助于linux
[root@gdsDB]# ls -lh
-rw-r--r--. 1 root root 17G Jun 1 16:34 material_server6.log计算出日志的总大小
[root@gdsDB]# wc -l server6.log198482332 material_server6.log
通过more翻页找到一些错误的信息,将信息写到另外的文件中,然后计算其报错数量
[root@gdsDB]# grep ToolkitException server6.log >> ToolkitException.txt[root@gdsDB ]# wc -l ToolkitException.txt
963356 ToolkitException.txt
每一个ToolkitException报错有200行,所以可以计算出此错误占总行数的比例:
963356*200/198482332=97.07%
问题找到了,原因是什么呢?try catch写到for循环里面,如果for循环20万次,则要报错20万次。