AIX5.3下nohup日志分割

一.原因
随着网站的访问越来越大,weblogic产生的日志文件也会越来越大,如果不对日志进行分割,那么只能一次将大的日志整个删除,这样也丢失了很多对网站比较宝贵的信息,因为这些日志可以用来进行访问分析、网络安全监察、网络运行状况监控等,因此管理好这些海量的日志对网站的意义是很大的。
而且如果不将日志进行分割,将导致日志文件变得很大,无法通过文本处理工具进行处理,影响出问题后的分析工作。
而且当nohup.out文件大小达到1073741824bytes(即1GB)后,就无法再增长,导致无法取得新的日志信息。
Weblogic只会对newtax日志自动分割,并不会处理nohup.out日志,但我们的系统的关键日志输出是在nohup日志中。
二.方案
通过每天晚上11:30分自动处理,将当天的日志文件转移到/bea/logs目录下,并清空原来的nohup.out日志。这步操作不会影响到weblogic的正常运作,同时由于每天的nohup日志文件目前就能达到接近700M,如果直接保存,将非常占用系统存储。因此采用自动压缩处理,经过测试,原本刚好1个GB的文件经过gzip压缩后大小为71.94M,压缩效果是非常好的。
三.测试
在135上用当前时间加五分钟测试成功。
四.实现
1.转储压缩脚本
#!/bin/ksh
TODAY=`date -u +"%Y%m%d"` 
#该处是Tab上方的“`”键,不是单引号。
/usr/bin/gzip -c /bea/weblogic/Oracle/Middleware/user_projects/domains/domain_wwbst/bin/nohup.out>/bea/logs/nohup${TODAY}.out.gz
> /bea/weblogic/Oracle/Middleware/user_projects/domains/domain_wwbst/bin/nohup.out
把该脚本上传到所有服务器的/bea/shells下
然后执行chmod +x /bea/shells/nohup_save.sh
2.在每台服务器上进行以下操作:
①增加crontab定时计划
②crontab –e
加入一行 30 23 * * * /bea/shells/nohup_save.sh
③执行mkdir /bea/logs
五.验证
1.2011.10.19检查所有机器的/bea/logs目录,生成了nohup.out.20111018.gz
2.检查nohup.out日志是否清空并在增长
3.压缩的文件解压后正常




  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值