Caleb0 2019-12-22
现有的日志都会存在 access.log 文件中,但是随着时间的推移,这个文件的内容会越来越多,体积会越来越大,不便于运维人员查看,所以我们可以通过把这个大的日志文件切割为多份不同的小文件作为日志,切割规则可以以天为单位,如果每天有几百G或者几个T的日志的话,则可以按需以每半天或者每小时对日志切割一下。
1.创建一个shell可执行文件:cut_my_log.sh,内容为:
#!/bin/bash LOG_PATH="/var/log/nginx/" RECORD_TIME=$(date -d "yesterday" +%Y-%m-%d+%H:%M) PID=/var/run/nginx/nginx.pid mv ${LOG_PATH}/access.log ${LOG_PATH}/access.${RECORD_TIME}.log mv ${LOG_PATH}/error.log ${LOG_PATH}/error.${RECORD_TIME}.log #向Nginx主进程发送信号,用于重新打开日志文件 kill -USR1 `cat $PID`
2.赋予可执行的权限
chmod +x cut_my_log.sh
3.执行并测试
./cut_my_log.sh
4.结果真是
[ nginx]# ll total 136 -rw-r--r-- 1 root root 77587 Dec 22 15:08 access.2019-12-21+15:16.log -rw-r--r-- 1 nobody root 0 Dec 22 15:16 access.log -rw-r--r-- 1 root root 51279 Dec 22 14:58 error.2019-12-21+15:16.log -rw-r--r-- 1 nobody root 0 Dec 22 15:16 error.log
1.安装定时任务:
yum install crontabs
2.crontab -e
编辑并且添加一行新的任务:
*/1 * * * * /usr/local/nginx/sbin/cut_my_log.sh
3.重启定时任务:
service crond restart
4.附:常用定时任务命令:
service crond start //启动服务 service crond stop //关闭服务 service crond restart //重启服务 service crond reload //重新载入配置 crontab -e // 编辑任务 crontab -l // 查看任务列表
5.查看效果
[ nginx]# ll total 148 -rw-r--r-- 1 root root 77587 Dec 22 15:08 access.2019-12-21+15:16.log -rw-r--r-- 1 nobody root 500 Dec 22 15:31 access.2019-12-21+15:34.log -rw-r--r-- 1 nobody root 0 Dec 22 15:34 access.2019-12-21+15:35.log -rw-r--r-- 1 nobody root 0 Dec 22 15:35 access.2019-12-21+15:36.log -rw-r--r-- 1 nobody root 128 Dec 22 15:36 access.log -rw-r--r-- 1 root root 51279 Dec 22 14:58 error.2019-12-21+15:16.log -rw-r--r-- 1 nobody root 0 Dec 22 15:16 error.2019-12-21+15:34.log -rw-r--r-- 1 nobody root 0 Dec 22 15:34 error.2019-12-21+15:35.log -rw-r--r-- 1 nobody root 0 Dec 22 15:35 error.2019-12-21+15:36.log -rw-r--r-- 1 nobody root 269 Dec 22 15:36 error.log