shell awk实现删除hdfs上某日期之前的文件

hadoop fs -ls /user/zhang  查看hdfs上的文件,awk $6是日期, $8是文件路径
#shell脚本
data=$(hadoop fs -ls /user/zhang/data | awk '{print $8}')
data_arr=(${data// / })
for sub_file in ${data_arr[@]}
do
    old_files=$(hadoop fs -ls $sub_file | awk 'BEGIN{ twenty_days_ago=strftime("%F", systime()-20*24*3600) }{ if($6<twenty_days_ago){printf "%s\n", $8} }'
    )
    arr=(${old_files// / })
    for oldfile in ${arr[@]}
    do
        hadoop dfs -rm -r $oldfile
    done
done

#如是集群
把hadoop替换为hadoop --cluster z-hadoop
z-hadoop是我的集群的名字
systime() 系统当前日期的秒数
strftime 返回的是2020-06-30
24*3600 一天的秒数

参考:https://www.cnblogs.com/yankang/p/9773996.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值