使用find与cron实现日志自动切割:先通过find命令定位大日志文件,结合split按大小分割,再用cron定时执行任务,配合gzip压缩和清理策略,构建轻量级日志管理体系,适用于无logrotate环境。

Linux系统中,日志文件会随着时间不断增长,过大的日志不仅占用磁盘空间,还会影响排查问题的效率。通过cron和find命令组合,可以实现灵活、自动化的日志切割,无需依赖logrotate也能完成基础管理任务。
使用find查找并分割大日志文件
核心思路是利用find命令找出指定目录下超过一定大小或修改时间较早的日志文件,再结合split或其他处理方式将其切分。
例如,将/var/log/下大于100MB的.log文件进行分割:
find /var/log -name "*.log" -size +100M -exec split {} {}_part_ ;
这条命令会查找所有大于100MB的.log文件,并用split按默认大小(通常是1000行)切分为多个片段,原文件名后加上_part_aa、_part_ab等后缀。
如果希望按大小分割,比如每个片段50MB:
find /var/log -name "*.log" -size +100M -exec split -b 50M {} {}_$(date +%Y%m%d)_ ;
结合cron实现定时切割
为了让日志切割自动化,可将上述命令写入crontab,设定周期执行。
编辑当前用户的定时任务:
crontab -e
添加一行,表示每天凌晨2点执行一次日志切分:
0 2 * * * find /var/log -name "*.log" -size +100M -exec split -b 50M {} {}_$(date +%Y%m%d)_ ; > /dev/null 2>&1
注意:在crontab中使用%符号需要转义,因此写成%Y%m%d。
ONLYOFFICE
用ONLYOFFICE管理你的网络私人办公室
1027 查看详情
切割后处理:压缩与清理
切分后的日志仍占用空间,建议进一步压缩归档或删除旧文件。
例如,在切割后对原始大文件进行gzip压缩,并保留7天:
find /var/log -name "*.log" -size +100M -exec split -b 50M {} {}_$(date +%Y%m%d)_ ; -exec gzip {} ;find /var/log -name "*.log.gz" -mtime +7 -delete
第一条命令在split后立即压缩原文件;第二条则定期清理7天前的压缩日志。
避免影响服务运行
直接操作正在被程序写入的日志文件可能导致数据丢失或服务异常。建议先通知应用重载日志(如nginx -s reopen),或使用copytruncate方式模拟安全切割。
若无法重启服务,可采用先拷贝再清空的方式:
find /var/log -name "app.log" -size +100M -exec sh -c 'cp {} {}.bak && echo "" > {}' ;
这样保留了历史内容,又不会中断写入。
基本上就这些。通过find定位目标日志,配合split切割、gzip压缩,再由cron驱动定时执行,就能构建一套轻量高效的手动日志管理体系。适用于嵌入式设备、容器环境或不想启用logrotate的场景。
以上就是Linux日志怎么切割_Linux日志通过cron和find命令组合切割的实用技巧的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/867444.html
微信扫一扫
支付宝扫一扫