Hadoop回收站详解

linux系统没有回收站概念,rm -rf很容易造成极大的损失。而在Hadoop或者说HDFS里面,有trash(回收站)的概念,可以使得数据被误删以后,还可以找回来。
Hadoop里的trash选项默认是关闭的,所以如果要生效,需要提前将trash选项打开,修改conf里的core-site.xml即可。
启用trash的相关配置

# 增加fs.trash参数配置 开启trash(进程不需重启)
vi core-site.xml
    <property>
        <name>fs.trash.interval</name>
        <value>4320</value>
    </property>
    <property>
        <name>fs.trash.checkpoint.interval</name>
        <value>1440</value>
    </property>
# fs.trash.interval是回收周期,文件实际上是被移动到trash的这个目录下面,而不是马上被删除掉。等到回收周期到了,hdfs才会将数据真正删除。默认的单位是分钟,4320分钟=60*24*3,刚好是一天;fs.trash.checkpoint.interval是指垃圾站检查间隔,应该是小于或者等于fs.trash.interval。
[hadoop@hadoop ~]$ hdfs dfs -put test.log /
[hadoop@hadoop ~]$ hdfs dfs -ls /                           
Found 3 items
-rw-r--r--   1 hadoop supergroup         34  /test.log
# 删除test.log 注意提示的不同
[hadoop@hadoop ~]$ hdfs dfs -rm -r /test.log                
18/05/23 16:54:55 INFO fs.TrashPolicyDefault: Moved: 'hdfs://ip:9000/test.log' to trash at: hdfs://ip:9000/user/hadoop/.Trash/Current/test.log
# 发现删除的文件在回收站里
[hadoop@hadoop ~]$ hdfs dfs -ls /user/hadoop/.Trash/Current
Found 1 items
-rw-r--r--   1 hadoop supergroup         34  /user/hadoop/.Trash/Current/test.log
# 恢复误删除的文件
[hadoop@hadoop ~]$ hdfs dfs -mv /user/hadoop/.Trash/Current/test.log /test.log
[hadoop@hadoop ~]$ hdfs dfs -ls /
Found 3 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /test.log
# 参考官方文档:http://hadoop.apache.org/docs/r2.8.4/hadoop-project-dist/hadoop-common/core-default.xml 
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值