linux 定期删除spark日志 shell 脚本

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/huojingjia/article/details/52884239

如下:

在linux命令行中创建一个空白文件,将下面代码加入到文件中。


注意:1.如果在windows 中编辑,上传到linux服务器中,需要利用vim 的 : set ff=unix   方法将文件的dos格式修改为unix格式,利用  :set ff  来查看是否修改成功。

             2.需要利用linux 的cron 定时调度服务,设置定时执行该脚本,来实现机器无人值守自动删除日志的目的。


#!/bin/sh

# delete 5 days ago spark work log, erevyday

SPARK_HOME=/home/MLF/spark-1.5.0-bin-hadoop2.6
# SPARK_HOME=/home/MLF/test
DELETE_DATE=`date -d "1 days ago" +%Y%m%d`
DELETE_FILES=$SPARK_HOME/work/app-$DELETE_DATE*


CURRENT_DATE=`date`


echo " $CURRENT_DATE : rm -rf $DELETE_FILES ......"
rm -rf $DELETE_FILES
展开阅读全文

没有更多推荐了,返回首页