nginx日志按天生成

问题:nginx会按照nginx.conf的配置生成access.log和error.log,随着访问量的增长,日志文件会越来越大,既会影响访问的速度(写入日志时间延长),也会增加查找日志的难度,nginx没有这种按天或更细粒度生成日志的机制,所以需要自己添加定时任务,分割日志文件。

1.新建分割日志文件的脚本,例如存放路径:/usr/local/nginx/sbin/cut_nginx_logs.sh,按天分割具体内容:

#!/bin/bash
#function:cut nginx log files

#set the path to nginx log files
log_files_path="/usr/local/nginx/logs/"  #access.log日志存放路径
log_files_dir=${log_files_path}

#set nginx log files you want to cut
log_files_name=(access )

#set the path to nginx.
nginx_sbin="/usr/local/nginx/sbin/nginx"   #nginx的sbin存放路径

#Set how long you want to save
#save_days=30


############################################
#Please do not modify the following script #
############################################

#mkdir -p $log_files_dir
log_files_num=${#log_files_name[@]}

#cut nginx log files
for((i=0;i<$log_files_num;i++));do
    mv ${log_files_path}${log_files_name[i]}.log ${log_files_dir}${log_files_name[i]}.log_$(date -d "yesterday" +"%Y-%m-%d")
done

#delete 30 days ago nginx log files
#find $log_files_path -mtime +$save_days -exec rm -rf {} \; 


#restart nginx
$nginx_sbin -s reload

2.将脚本添加到定时任务中,这里指定每天0点执行

#打开定时任务
crontab -e

#添加定时任务
00 00 * * * /bin/sh  /usr/local/nginx/sbin/cut_nginx_logs.sh
#":wq"保存并退出

#查看定时任务,就会看到你添加的内容了
crontab -l

查看实际效果如下:
在这里插入图片描述

转载自(https://blog.csdn.net/zhenzhendeblog/article/details/50013583

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值