logrotate 详解

文章详细介绍了Linux系统中logrotate工具的使用,包括配置文件解析、日志切割原理、常见参数解释以及如何手动执行和配置日志轮转。logrotate是一个自动管理日志文件,进行切割、压缩和删除的工具,通过CRON任务定期执行。文章还提供了一些服务(如nginx、php、tomcat)的日志轮转配置示例,并讨论了自定义脚本进行日志管理的方法。
摘要由CSDN通过智能技术生成

Linux logrotate 详解

2020-06-12 17:00

转自:散尽浮华

对于 Linux 系统安全来说,日志文件是极其重要的工具。不知为何,我发现很多运维同学的服务器上都运行着一些诸如每天切分 Nginx日志之类的 CRON 脚本,大家似乎遗忘了 Logrotate,争相发明自己的轮子,这真是让人沮丧啊!就好比明明身边躺着现成的性感美女,大家却忙着自娱自乐,罪过!

logrotate 程序是一个日志文件管理工具。用于分割日志文件,删除旧的日志文件,并创建新的日志文件,起到“转储”作用。可以节省磁盘空间。下面就对 logrotate 日志轮转操作做一梳理记录。

1、配置文件介绍

Linux系统默认安装logrotate工具,它默认的配置文件在:

/etc/logrotate.conf

/etc/logrotate.d/

logrotate.conf 才主要的配置文件,logrotate.d 是一个目录,该目录里的所有文件都会被主动的读入/etc/logrotate.conf中执行。

另外,如果 /etc/logrotate.d/ 里面的文件中没有设定一些细节,则会以/etc/logrotate.conf这个文件的设定来作为默认值。

Logrotate是基于CRON来运行的,其脚本是/etc/cron.daily/logrotate,日志轮转是系统自动完成的。实际运行时,Logrotate会调用配置文件/etc/logrotate.conf。可以在/etc/logrotate.d目录里放置自定义好的配置文件,用来覆盖Logrotate的缺省值。

[root@huanqiu_web1 ~] # cat /etc/cron.daily/logrotate

#!/bin/sh

/usr/sbin/logrotate /etc/logrotate.conf >/dev/null 2>&1

EXITVALUE=$?

if[ $EXITVALUE!= 0 ]; then

/usr/bin/logger -t logrotate "ALERT exited abnormally with [ $EXITVALUE]"

fi

exit0

如果等不及cron自动执行日志轮转,想手动强制切割日志,需要加-f参数;不过正式执行前最好通过Debug选项来验证一下(-d参数),这对调试也很重要:

# /usr/sbin/logrotate -f /etc/logrotate.d/nginx

# /usr/sbin/logrotate -d -f /etc/logrotate.d/nginx

logrotate 命令格式:

logrotate [OPTION...] <configfile>

-d, --debug :debug模式,测试配置文件是否有错误。

-f, --force :强制转储文件。

-m, --mail=command :压缩日志后,发送日志到指定邮箱。

-s, --state=statefile :使用指定的状态文件。

-v, --verbose :显示转储过程。

根据日志切割设置进行操作,并显示详细信息:

[root@huanqiu_web1 ~] # /usr/sbin/logrotate -v /etc/logrotate.conf

[root@huanqiu_web1 ~] # /usr/sbin/logrotate -v /etc/logrotate.d/php

根据日志切割设置进行执行,并显示详细信息,但是不进行具体操作,debug模式

[root@huanqiu_web1 ~] # /usr/sbin/logrotate -d /etc/logrotate.conf

[root@huanqiu_web1 ~] # /usr/sbin/logrotate -d /etc/logrotate.d/nginx

查看各log文件的具体执行情况

[root@fangfull_web1 ~] # cat /var/lib/logrotate.status

2、切割介绍

比如以系统日志/var/log/message做切割来简单说明下:

  • 第一次执行完rotate(轮转)之后,原本的messages会变成messages.1,而且会制造一个空的messages给系统来储存日志;

  • 第二次执行之后,messages.1会变成messages.2,而messages会变成messages.1,又造成一个空的messages来储存日志!

如果仅设定保留三个日志(即轮转3次)的话,那么执行第三次时,则 messages.3这个档案就会被删除,并由后面的较新的保存日志所取代!也就是会保存最新的几个日志。

日志究竟轮换几次,这个是根据配置文件中的dateext 参数来判定的。

看下logrotate.conf配置:

# cat /etc/logrotate.conf

# 底下的设定是 "logrotate 的默认值" ,如果別的文件设定了其他的值,

# 就会以其它文件的设定为主

weekly //默认每一周执行一次rotate轮转工作

rotate 4//保留多少个日志文件(轮转几次).默认保留四个.就是指定日志文件删除之前轮转的次数,0 指没有备份

create //自动创建新的日志文件,新的日志文件具有和原来的文件相同的权限;因为日志被改名,因此要创建一个新的来继续存储之前的日志

dateext //这个参数很重要!就是切割后的日志文件以当前日期为格式结尾,如xxx.log-20131216这样,如果注释掉,切割出来是按数字递增,即前面说的 xxx.log-1这种格式

compress //是否通过gzip压缩转储以后的日志文件,如xxx.log-20131216.gz ;如果不需要压缩,注释掉就行

include/etc/logrotate.d

# 将 /etc/logrotate.d/ 目录中的所有文件都加载进来

/ var/log/wtmp { //仅针对 /var/log/wtmp 所设定的参数

monthly //每月一次切割,取代默认的一周

minsize 1M //文件大小超过 1M 后才会切割

create 0664root utmp //指定新建的日志文件权限以及所属用户和组

rotate 1//只保留一个日志.

}

# 这个 wtmp 可记录用户登录系统及系统重启的时间

# 因为有 minsize 的参数,因此不见得每个月一定会执行一次喔.要看文件大小。

由这个文件的设定可以知道/etc/logrotate.d其实就是由/etc/logrotate.conf 所规划出来的目录,虽然可以将所有的配置都写入 /etc/logrotate.conf ,但是这样一来这个文件就实在是太复杂了,尤其是当使用很多的服务在系统上面时, 每个服务都要去修改 /etc/logrotate.conf 的设定也似乎不太合理了。

所以,如果独立出来一个目录,那么每个要切割日志的服务, 就可以独自成为一个文件,并且放置到 /etc/logrotate.d/ 当中。

其他重要参数说明:

compress 通过gzip 压缩转储以后的日志

nocompress 不做gzip压缩处理

copytruncate 用于还在打开中的日志文件,把当前日志备份并截断;是先拷贝再清空的方式,拷贝和清空之间有一个时间差,可能会丢失部分日志数据。

nocopytruncate 备份日志文件不过不截断

createmodeowner group轮转时指定创建新文件的属性,如 create0777nobody nobody

nocreate 不建立新的日志文件

delaycompress 和 compress一起使用时,转储的日志文件到下一次转储时才压缩

nodelaycompress 覆盖 delaycompress 选项,转储同时压缩。

missingok 如果日志丢失,不报错继续滚动下一个日志

errorsaddress 专储时的错误信息发送到指定的Email 地址

ifempty 即使日志文件为空文件也做轮转,这个是logrotate的缺省选项。

notifempty 当日志文件为空时,不进行轮转

mail address 把转储的日志文件发送到指定的E-mail 地址

nomail 转储时不发送日志文件

olddir directory转储后的日志文件放入指定的目录,必须和当前日志文件在同一个文件系统

noolddir 转储后的日志文件和当前日志文件放在同一个目录下

shareds 运行postrotate脚本,作用是在所有日志都轮转后统一执行一次脚本。如果没有配置这个,那么每个日志轮转后都会执行一次脚本

prerotate 在logrotate转储之前需要执行的指令,例如修改文件的属性等动作;必须独立成行

postrotate 在logrotate转储之后需要执行的指令,例如重新启动 ( kill-HUP) 某个服务!必须独立成行

daily 指定转储周期为每天

weekly 指定转储周期为每周

monthly 指定转储周期为每月

rotate count指定日志文件删除之前转储的次数, 0指没有备份, 5指保留 5个备份

dateext 使用当期日期作为命名格式

dateformat .%s 配合dateext使用,紧跟在下一行出现,定义文件切割后的文件名,必须配合dateext使用,只支持 %Y %m %d %s 这四个参数

size(或minsize) log- size当日志文件到达指定的大小时才转储, log- size能指定 bytes(缺省)及KB (sizek)或MB(sizem).

当日志文件 >= log- size的时候就转储。 以下为合法格式:(其他格式的单位大小写没有试过)

size= 5或 size5(>= 5个字节就转储)

size= 100k 或 size100k

size= 100M 或 size100M

小示例:下面一个切割nginx日志的配置

[root@master-server ~] # vim /etc/logrotate.d/nginx

/usr/ local/nginx/logs/*. log{

daily

rotate 7

missingok

notifempty

dateext

shareds

postrotate

if[ -f /usr/ local/nginx/logs/nginx.pid ]; then

kill-USR1 `cat /usr/ local/nginx/logs/nginx.pid`

fi

end

}

分享一例曾经使用过的nginx日志切割处理脚本:

1)logrotate日志分割配置

[root@bastion-IDC ~ # vim /etc/logrotate.d/nginx

/data/nginx_logs/*.access_log

{

nocompress

daily

copytruncate

create

ifempty

olddir /data/nginx_logs/days

rotate 0

}

2)日志分割脚本

[root@bastion-IDC ~ # vim /usr/local/sbin/logrotate-nginx.sh

#!/bin/bash

#创建转储日志压缩存放目录

mkdir -p /data/nginx_logs/days

#手工对nginx日志进行切割转换

/usr/sbin/logrotate -vf /etc/logrotate.d/nginx

#当前时间

time=$(date -d "yesterday"+ "%Y-%m-%d")

#进入转储日志存放目录

cd/data/nginx_logs/days

#对目录中的转储日志文件的文件名进行统一转换

fori in$(ls ./ | grep "^(.*).[[:digit:]]$")

do

mv ${i}./$( echo${i}|sed -n 's/^(.*).([[:digit:]])$/1/p')-$( echo$time)

done

#对转储的日志文件进行压缩存放,并删除原有转储的日志文件,只保存压缩后的日志文件。以节约存储空间

fori in$(ls ./ | grep "^(.*)-([[:digit:]-]+)$")

do

tar jcvf ${i}.bz2 ./ ${i}

rm -rf ./ ${i}

done

#只保留最近7天的压缩转储日志文件

find /data/nginx_logs/days/* -name "*.bz2"-mtime 7 - typef - execrm -rf {} ;

3)crontab定时执行

[root@bastion-IDC ~ # crontab -e

#logrotate

00* * * /bin/bash-x /usr/local/sbin/logrotate-nginx.sh > /dev/null2>

手动执行脚本,测试下看看:

[root@bastion-IDC ~ # /bin/bash -x /usr/local/sbin/logrotate-nginx.sh

[root@bastion-IDC ~ # cd /data/nginx_logs/days

[root@bastion-IDC days # ls

huantest.access_log -2017-01-18.bz2

php脚本切割一例:

[root@huanqiu_web1 ~] # cat /etc/logrotate.d/php

/Data/logs/php/*log {

daily

rotate 365

missingok

notifempty

compress

dateext

shareds

postrotate

if[ -f /Data/app/php5 .6.26/var/run/php-fpm.pid ]; then

kill -USR1 ` cat /Data/app/php5 .6.26/ var/run/php-fpm.pid `

fi

end

postrotate

/bin/chmod 644 /Data/logs/php/*gz

end

}

[root@huanqiu_web1 ~] # ll /Data/app/php5.6.26/var/run/php-fpm.pid

-rw-r--r-- 1root root 4Dec 2817: 03/Data/app/php5 .6.26/var/run/php-fpm.pid

[root@huanqiu_web1 ~] # cd /Data/logs/php

[root@huanqiu_web1 php] # ll

total 25676

-rw-r--r-- 1root root 0Jun 12016error.log

-rw-r--r-- 1nobody nobody 182Aug 302015error.log -20150830.gz

-rw-r--r-- 1nobody nobody 371Sep 12015error.log -20150901.gz

-rw-r--r-- 1nobody nobody 315Sep 72015error.log -20150907.gz

.........

.........

nginx日志切割一例

[root@huanqiu_web1 ~]# cat /etc/logrotate.d/nginx

/Data/logs/nginx/*/* log{

daily

rotate 365

missingok

notifempty

compress

dateext

shareds

postrotate

/etc/init.d/nginx reload

end

}

[root@huanqiu_web1 ~]# ll /Data/logs/nginx/www.huanqiu.com/

..........

-rw-r--r-- 1root root 1652Jan 100: 00error. log-20170101.gz

-rw-r--r-- 1root root 1289Jan 200: 00error. log-20170102.gz

-rw-r--r-- 1root root 1633Jan 300: 00error. log-20170103.gz

-rw-r--r-- 1root root 3239Jan 400: 00error. log-20170104.gz

系统日志切割一例

[ root@huanqiu_web1 ~] # cat /etc/logrotate.d/syslog

/ var/log/cron

/ var/log/maillog

/ var/log/messages

/ var/log/secure

/ var/log/spooler

{

shareds

postrotate

/bin/kill -HUP `cat / var/run/syslogd.pid 2> /dev/ null` 2> /dev/ null|| true

end

}

[ root@huanqiu_web1 ~] # ll /var/log/messages*

-rw------- 1root root 34248975Jan 1918: 42/ var/log/messages

-rw------- 1root root 51772994Dec 2503: 11/ var/log/messages -20161225

-rw------- 1root root 51800210Jan 103: 05/ var/log/messages -20170101

-rw------- 1root root 51981366Jan 803: 36/ var/log/messages -20170108

-rw------- 1root root 51843025Jan 1503: 40/ var/log/messages -20170115

[ root@huanqiu_web1 ~] # ll /var/log/cron*

-rw------- 1root root 2155681Jan 1918: 43/ var/log/cron

-rw------- 1root root 2932618Dec 2503: 11/ var/log/cron -20161225

-rw------- 1root root 2939305Jan 103: 06/ var/log/cron -20170101

-rw------- 1root root 2951820Jan 803: 37/ var/log/cron -20170108

-rw------- 1root root 3203992Jan 1503: 41/ var/log/cron -20170115

[ root@huanqiu_web1 ~] # ll /var/log/secure*

-rw------- 1root root 275343Jan 1918: 36/ var/log/secure

-rw------- 1root root 2111936Dec 2503: 06/ var/log/secure -20161225

-rw------- 1root root 2772744Jan 102: 57/ var/log/secure -20170101

-rw------- 1root root 1115543Jan 803: 26/ var/log/secure -20170108

-rw------- 1root root 731599Jan 1503: 40/ var/log/secure -20170115

[ root@huanqiu_web1 ~] # ll /var/log/spooler*

-rw------- 1root root 0Jan 1503: 41/ var/log/spooler

-rw------- 1root root 0Dec 1803: 21/ var/log/spooler -20161225

-rw------- 1root root 0Dec 2503: 11/ var/log/spooler -20170101

-rw------- 1root root 0Jan 103: 06/ var/log/spooler -20170108

-rw------- 1root root 0Jan 803: 37/ var/log/spooler -20170115

tomcat日志切割一例

[root@huanqiu- backup~] # cat /etc/logrotate.d/tomcat

/ Data/app/tomcat -7-huanqiu/ logs/catalina.out {

rotate 14

daily

copytruncate

compress

notifempty

missingok

}

[root@huanqiu- backup~] # ll /Data/app/tomcat-7-huanqiu/logs/catalina.*

-rw-r --r--. 1 root root 0 Jan 19 19:11 /Data/app/tomcat-7-huanqiu/logs/catalina.out

-rw-r --r--. 1 root root 95668 Jan 19 19:11 /Data/app/tomcat-7-huanqiu/logs/catalina.out.1.gz

早期用过的nginx日志处理一例

[root@letv-backup ~] # vim /letv/sh/cut_nginx_log.sh

#!/bin/bash

# 你的日志文件存放目录

logs_path= "/letv/logs/"

# 日志文件的名字,多个需要空格隔开

logs_names=(error access pv_access)

dates=`date -d "yesterday"+ "%Y%m%d"`

mkdir -p ${logs_path}$dates/

num= ${#logs_names[@]}

for((i=0;i<num;i++)); do

mv ${logs_path}${logs_names[i]}. log${logs_path}$dates/ ${logs_names[i]}. log

done

#nginx平滑重启

kill-USR1 `cat /letv/logs/nginx/nginx.pid`

结合crontab定时执行

[root@letv-backup ~] # crontab -e

#nginx日志切割

00 00 * * * cd/letv/logs;/bin/bash /letv/sh/cut_nginx_log.sh > /dev/null 2> $1

3、尝试解决logrotate无法自动轮询日志的办法

现象说明:

使用logrotate轮询nginx日志,配置好之后,发现nginx日志连续两天没被切割,这是为什么呢??

然后开始检查日志切割的配置文件是否有问题,检查后确定配置文件一切正常。

于是怀疑是logrotate预定的cron没执行,查看了cron的日志,发现有一条Dec 7 04:02:01 www crond[18959]: (root) CMD (run-parts /etc/cron.daily)这样的日志,证明cron在04:02分时已经执行/etc/cron.daily目录下的程序。

接着查看/etc /cron.daily/logrotate(这是logrotate自动轮转的脚本)的内容:

[root@huanqiu_test ~] # cat /etc/cron.daily/logrotate

#!/bin/sh

/usr/sbin/logrotate /etc/logrotate.conf >/dev/null 2>&1

EXITVALUE=$?

if[ $EXITVALUE!= 0 ]; then

/usr/bin/logger -t logrotate "ALERT exited abnormally with [ $EXITVALUE]"

fi

exit0

没有发现异常,配置好的日志轮转操作都是由这个脚本完成的,一切运行正常,脚本应该就没问题。

直接执行命令:

[root@huanqiu_test ~] # /usr/sbin/logrotate /etc/logrotate.conf

这些系统日志是正常轮询了,但nginx日志却还是没轮询。

接着强行启动记录文件维护操作,纵使logrotate指令认为没有需要,应该有可能是logroate认为nginx日志太小,不进行轮询。

故需要强制轮询,即在/etc/cron.daily/logrotate脚本中将 -t 参数替换成 -f 参数

[root@huanqiu_test ~] # cat /etc/cron.daily/logrotate

#!/bin/sh

/usr/sbin/logrotate /etc/logrotate.conf >/dev/null 2>&1

EXITVALUE=$?

if[ $EXITVALUE!= 0 ]; then

/usr/bin/logger -f logrotate "ALERT exited abnormally with [ $EXITVALUE]"

fi

exit

最后最后重启下cron服务:

[root@huanqiu_test ~] # /etc/init.d/crond restart

Stopping crond: [ OK ]

Starting crond: [ OK ]

logrotate默认自动切割生效时间

Logrotate是基于CRON来运行的,其脚本是/etc/cron.daily/logrotate,实际运行时,Logrotate会调用配置文件/etc/logrotate.conf。

[root@ test~] # cat /etc/cron.daily/logrotate

#!/bin/sh

/usr/sbin/logrotate /etc/logrotate.conf

EXITVALUE=$?

if[ $EXITVALUE!= 0 ]; then

/usr/bin/logger -t logrotate "ALERT exited abnormally with [ $EXITVALUE]"

fi

exit0

Logrotate是基于CRON运行的,所以这个时间是由CRON控制的,具体可以查询CRON的配置文件/etc/anacrontab(老版本的文件是/etc/crontab)

[root@ test~] # cat /etc/anacrontab

# /etc/anacrontab: configuration file for anacron

# See anacron(8) and anacrontab(5) for details.

SHELL=/bin/sh

PATH=/sbin:/bin:/usr/sbin:/usr/bin

MAILTO=root

# the maximal random delay added to the base delay of the jobs

RANDOM_DELAY=45 //这个是随机的延迟时间,表示最大45分钟

# the jobs will be started during the following hours only

START_HOURS_RANGE=3-22 //这个是开始时间

#period in days delay in minutes job-identifier command

1 5 cron.daily nice run-parts /etc/cron.daily

7 25 cron.weekly nice run-parts /etc/cron.weekly

@monthly 45 cron.monthly nice run-parts /etc/cron.monthly

第一个是Recurrence period

第二个是延迟时间

所以cron.daily会在3:22+(5,45)这个时间段执行,/etc/cron.daily是个文件夹

通过默认/etc/anacrontab文件配置,会发现logrotate自动切割日志文件的默认时间是凌晨3点多。

==================================================================================================

现在需要将切割时间调整到每天的晚上12点,即每天切割的日志是前一天的0-24点之间的内容。

操作如下:

[root@kevin ~] # mv /etc/anacrontab /etc/anacrontab.bak //取消日志自动轮转的设置

[root@G6-bs02 logrotate.d] # cat nstc_nohup.out

/data/nstc/nohup.out {

rotate 30

dateext

daily

copytruncate

compress

notifempty

missingok

}

[root@G6-bs02 logrotate.d] # cat syslog

/var/ log/cron

/var/ log/maillog

/var/ log/messages

/var/ log/secure

/var/ log/ history

{

shareds

compress

rotate 30

daily

dateext

postrotate

/bin/ kill-HUP `cat /var/run/syslogd.pid 2> /dev/null` 2> /dev/null || true

end

}

结合crontab进行自定义的定时轮转操作

[root@kevin ~] # crontab -l

#log logrotate

59 23 * * * /usr/sbin/logrotate -f /etc/logrotate.d/syslog >/dev/null 2>&1

59 23 * * * /usr/sbin/logrotate -f /etc/logrotate.d/nstc_nohup.out >/dev/null 2>&1

[root@G6-bs02 ~] # ll /data/nstc/nohup.out*

-rw------- 1 app app 33218 1月 25 09:43 /data/nstc/nohup.out

-rw------- 1 app app 67678 1月 25 23:59 /data/nstc/nohup.out-20180125.gz

除了利用自带的Logrotate工具实现日志切割之外,还可以编写python脚本或shell脚本以实现日志切割。下面就简单列出几个实例说明下:

一、Python脚本实现日志切割

实例 1:对jumpserver日志进行切割

[root@test-vm01 mnt] # cat log_rotate.py

#!/usr/bin/env python

importdatetime,os,sys,shutil

log_path = '/opt/jumpserver/logs/'

log_file = 'jumpserver.log'

yesterday = (datetime.datetime.now - datetime.timedelta(days = 1))

try:

os.makedirs(log_path + yesterday.strftime( '%Y') + os.sep +

yesterday.strftime( '%m'))

except OSError,e:

print

printe

sys.exit

shutil.move(log_path + log_file,log_path

+ yesterday.strftime( '%Y') + os.sep

+ yesterday.strftime( '%m') + os.sep

+ log_file + '_'+ yesterday.strftime( '%Y%m%d') + '.log')

os.popen( "sudo /opt/jumpserver/service.sh restart")

手动执行这个脚本:

[root@test-vm01 mnt] # chmod 755 log_rotate.py

[root@test-vm01 mnt] # python log_rotate.py

查看日志切割后的效果:

[root@test-vm01 mnt] # ls /opt/jumpserver/logs/

2017jumpserver.log

[root@test-vm01 mnt] # ls /opt/jumpserver/logs/2017/

09

[root@test-vm01 mnt] # ls /opt/jumpserver/logs/2017/09/

jumpserver.log_20170916.log

然后做每日的定时切割任务:

[root@test-vm01 mnt] # crontab -e

301* * * /usr/bin/python /mnt/log_rotate.py > /dev/ null2>& 1

--------------------------------------------------------------------------------------

实例 2:对nginx日志进行切割

[root@test-vm01 mnt] # vim log_rotate.py

#!/usr/bin/env python

importdatetime,os,sys,shutil

log_path = '/app/nginx/logs/'

log_file = 'www_access.log'

yesterday = (datetime.datetime.now - datetime.timedelta(days = 1))

try:

os.makedirs(log_path + yesterday.strftime( '%Y') + os.sep +

yesterday.strftime( '%m'))

except OSError,e:

print

printe

sys.exit

shutil.move(log_path + log_file,log_path

+ yesterday.strftime( '%Y') + os.sep

+ yesterday.strftime( '%m') + os.sep

+ log_file + '_'+ yesterday.strftime( '%Y%m%d') + '.log')

os.popen( "sudo kill -USR1 `cat /app/nginx/logs/nginx.pid`")

--------------------------------------------------------------------------------------

其他业务日志的切割脚本跟上面做法相同

二、shell脚本实现日志切割

[root@qd-vpc-op-consumer01 ~] # cat /app//log_rotate.sh

#!/bin/sh

functionrotate{

logs_path= $1

echoRotating Log: $1

cp ${logs_path}${logs_path}.$(date -d "yesterday"+ "%Y%m%d")

> ${logs_path}

rm -f ${logs_path}.$(date -d "7 days ago"+ "%Y%m%d")

}

fori in$*

do

rotate $i

done

--------------------------------------------------------------------------------------------------------------

每天定时切割日志的任务制定(比如对python的一个业务/data/ log/xcspam/下的日志进行切割,0K的日志不进行切割):

[root@qd-vpc-op-consumer01 ~] # crontab -e

#xcspam 日志切割

30 0 * * * find /data/ log/xcspam/ -size +0 -name '*.log'| xargs /app//log_rotate.sh

手动执行切割:

[root@qd-vpc-op-consumer01 ~] # find /data/log/xcspam/ -size +0 -name '*.log' | xargs /app//log_rotate.sh

切割后的日志效果:

[root@qd-vpc-op-consumer01 ~] # ls /data/log/xcspam/

xcspam_error.log xcspam_error.log-20170926

--------------------------------------------------------------------------------------------------------------

比如对maridb日志进行切割

[root@qd-vpc-op-consumer01 ~] # crontab -e

#xcspam 日志切割

30 0 * * * find /var/ log/mariadb/ -size +0 -name '*.log'| xargs /app//log_rotate.sh

[root@qd-vpc-op-consumer01 ~] # find /var/log/mariadb/ -size +0 -name '*.log' | xargs /app//log_rotate.sh

[root@qd-vpc-op-consumer01 ~] # ll /var/log/mariadb/

总用量 8

-rw-r-----. 1 mysql mysql 0 9月 17 20:31 mariadb.log

-rw-r-----. 1 root root 4532 9月 17 20:31 mariadb.log.20170916

--------------------------------------------------------------------------------------------------------------

日志压缩脚本:

[root@localhost ~] # ls /var/log/fss/nginx/

nginx.20190506.log nginx.20190507.log nginx.20190508.log

[root@localhost ~] # cat /root/log_clean.sh

#!/usr/bin/sh

#根据系统/服务/日志保留天数三个参数压缩日志

#usage: sh clearlog.sh sysname appname keepdays

sysName= $1

appName= $2

keepDay= $3

logDir=/var/ log/ ${sysName}/ ${appName}

logFile= ${appName}.*[0-9][0-9]. log

cd${logDir}

find ./ -name " ${logFile}" -mtime - ${keepDay}- execgzip {} ;

[root@localhost ~] # sh /root/log_clean.sh fss nginx 3

[root@localhost ~] # ls /var/log/fss/nginx/

nginx.20190506.log.gz nginx.20190507.log.gz nginx.20190508.log.gz

还可以针对日志保留策略,调整成日志清理脚本。

推荐用的Nginx日志轮转方法 [部署在nginx的日志目录下]

#!/bin/bash

yesterday=`date -d "-1 days"+ '%Y%m%d'`

cd`dirname $0`

basedir=` pwd`

logdir= " ${basedir}/bak"

bindir= " ${basedir%/*}/sbin"

mkdir -p ${logdir}

forlogin`ls *. log2>/dev/null`

do

mv ${log}${logdir}/ ${log}. ${yesterday}.bak

# gzip ${logdir}/${log}.${yesterday}

done

${bindir}/nginx -s reload

cd${logdir}

find . - typef -name "*.bak"-mtime +7 | xargs rm -f

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值