前言 网上有很多用kill -URS1的方式来让nginx产生新的日志文件,也有很多人抱怨这种方式是否正确,在这里我要告诉大家,这种方式非常正确。我看了系统自带的logrotates来实现nginx的日志分割,查看其bash源码,发现也是发送USR1这个信号。 这里解释一下USR1这个用户自定义信号,经过和一淘我特别崇拜的一个牛人张洋确认后,发现ubuntu下大部分进程对这个信号的反应都是重新生成日志文件,并且不会对当前的进程产生任何其它的影响
思路 利用bash的数组和for简化日志备份代码 利用date函数做日志备份的后缀,达到按天分割的效果 利用USR1信号让nginx产生新的日志
bash脚本 www. 我的服务器上需要备份的日志文件分布在不同的目录下,所以我的脚本做了适当的优化(仔细看代码,你会理解的) #!/bin/bash -
#1.nginx日志存放路径 first_path="/var/log/nginx/first" path_array=($first_path)
#2.日志标识前缀数组 first_prefix_sign="first" prefix_array=($first_prefix_sign)
#3.日志成功错误标识后缀数组 bool_array=("access" "error")
#4.nginx日志切割备份后缀 postfix=`date -d '+0 days' +%Y%m%d`".log"
#5.备份当前的日志文件,重命名改为日期后缀 for path in ${path_array[*]} do for prefix in ${prefix_array[*]} do for bool in ${bool_array[*]} do file=$path/$prefix.$bool.log backfile=$path/$prefix.$bool.$postfix echo $file echo $backfile if [ -e $file ] then mv $file $backfile fi done done done
#6.查找nginx进程号,让其产生新的日志文件 nginx_pid=`ps -aux |grep -E 'nginx: master process'|grep -v 'grep'|awk '{print $2}'` #USR1:Reopen log files,刷新nginx日志文件 kill -USR1 $nginx_pid
简单实现:
[root@administrator sh]# vi nginx_access_log.sh #!/bin/bash log_path="/usr/local/nginx/logs/" mv ${log_path}access.log ${log_path}access_$(date -d "yesterday" +%Y%m%d).log nginx_pid=`ps aux |grep -E 'nginx: master process'|grep -v 'grep'|awk '{print $2}'` kill -USR1 $nginx_pid
然后在linux下的任务中添加每天执行一次的任务
命令:crontab -e
然后添加一句话
1 0 * * * sh /*/nginx_access_log.sh
执行保存即可
测试情况下可以直接执行 ./nginx_access_log.sh
如果每天要其自动执行的话需要先
service crond stop
然后再
service crond start 即可正常使用了
|