linux 定期删除spark日志 shell 脚本

如下:

在linux命令行中创建一个空白文件,将下面代码加入到文件中。


注意:1.如果在windows 中编辑,上传到linux服务器中,需要利用vim 的 : set ff=unix   方法将文件的dos格式修改为unix格式,利用  :set ff  来查看是否修改成功。

             2.需要利用linux 的cron 定时调度服务,设置定时执行该脚本,来实现机器无人值守自动删除日志的目的。


#!/bin/sh

# delete 5 days ago spark work log, erevyday

SPARK_HOME=/home/MLF/spark-1.5.0-bin-hadoop2.6
# SPARK_HOME=/home/MLF/test
DELETE_DATE=`date -d "1 days ago" +%Y%m%d`
DELETE_FILES=$SPARK_HOME/work/app-$DELETE_DATE*


CURRENT_DATE=`date`


echo " $CURRENT_DATE : rm -rf $DELETE_FILES ......"
rm -rf $DELETE_FILES
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值