对hadoop的tmp目录下的filecache的处理

hadoop.tmp.dir指定hadoop的临时存储目录。在该目录下有filecache会占用很多的存储。
做如下改动:
1.增加配置,分发到所有节点,自动清理

<property>
     <name>yarn.nodemanager.localizer.cache.cleanup.interval-ms</name>
    <value>3000</value>
</property>

2.每个节点手动删除内容:

rm -rf   /usr/local/hadoop/tmp/nm-local-dir/usercache/root/filecache/*

3.重启大数据相关服务:

cd /opt/module
./spark-2.4.5/sbin/stop-all.sh
hiveservices.sh stop
stop-all.sh

start-all.sh
hiveservices.sh start 
./spark-2.4.5/sbin/start-all.sh
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值