Hadoop回收站trash,默认是关闭的。
习惯了window的同学,建议最好还是把它提前开开,否则误操作的时候,就欲哭无泪了
1.修改[b]conf/core-site.xml[/b],增加
默认是0.单位分钟。这里我设置的是1天(60*24)
删除数据rm后,会将数据move到当前文件夹下的.Trash目录
[b]2.测试[/b]
1)新建目录input
2)上传文件
3)删除目录input
[code="java"]# hadoop fs -rmr input
Moved to trash: hdfs://master:9000/user/root/input[/code]
4)参看当前目录
[code="java"]# hadoop fs -ls
Found 2 items
drwxr-xr-x - root supergroup 0 2011-02-12 22:17 /user/root/.Trash[/code]
发现input删除,多了一个目录.Trash
5)恢复刚刚删除的目录
[code="java"]# hadoop fs -mv /user/root/.Trash/Current/user/root/input /user/root/input[/code]
6)检查恢复的数据
[code="java"]# hadoop fs -ls input
Found 2 items
-rw-r--r-- 3 root supergroup 22 2011-02-12 17:40 /user/root/input/file01
-rw-r--r-- 3 root supergroup 28 2011-02-12 17:40 /user/root/input/file02[/code]
6)删除.Trash目录(清理垃圾)
[code="java"]# hadoop fs -rmr .Trash
Deleted hdfs://master:9000/user/root/.Trash[/code]
习惯了window的同学,建议最好还是把它提前开开,否则误操作的时候,就欲哭无泪了
1.修改[b]conf/core-site.xml[/b],增加
<property>
<name>fs.trash.interval</name>
<value>1440</value>
<description>Number of minutes between trash checkpoints.
If zero, the trash feature is disabled.
</description>
</property>
默认是0.单位分钟。这里我设置的是1天(60*24)
删除数据rm后,会将数据move到当前文件夹下的.Trash目录
[b]2.测试[/b]
1)新建目录input
hadoop/bin/hadoop fs -mkdir input
2)上传文件
root@master:/data/soft# hadoop/bin/hadoop fs -copyFromLocal /data/soft/file0* input
3)删除目录input
[code="java"]# hadoop fs -rmr input
Moved to trash: hdfs://master:9000/user/root/input[/code]
4)参看当前目录
[code="java"]# hadoop fs -ls
Found 2 items
drwxr-xr-x - root supergroup 0 2011-02-12 22:17 /user/root/.Trash[/code]
发现input删除,多了一个目录.Trash
5)恢复刚刚删除的目录
[code="java"]# hadoop fs -mv /user/root/.Trash/Current/user/root/input /user/root/input[/code]
6)检查恢复的数据
[code="java"]# hadoop fs -ls input
Found 2 items
-rw-r--r-- 3 root supergroup 22 2011-02-12 17:40 /user/root/input/file01
-rw-r--r-- 3 root supergroup 28 2011-02-12 17:40 /user/root/input/file02[/code]
6)删除.Trash目录(清理垃圾)
[code="java"]# hadoop fs -rmr .Trash
Deleted hdfs://master:9000/user/root/.Trash[/code]