1. 集群间拷贝
1.scp实现两个远程主机之间的文件复制
scp -r hello.txt root@hadoop103:/user/hadoop/hello.txt // 推 push
scp -r root@hadoop103:/user/hadoop/hello.txt hello.txt // 拉 pull
scp -r root@hadoop103:/user/hadoop/hello.txt root@hadoop104:/user/hadoop //是通过本地主机中转实现两个远程主机的文件复制;如果在两个远程主机之间ssh没有配置的情况下可以使用该方式。
2.采用distcp命令实现两个Hadoop集群之间的递归数据复制
[hadoop@hadoop102 hadoop-2.7.2]$ bin/hadoop distcp hdfs://haoop102:9000/user/hadoop/hello.txt hdfs://hadoop103:9000/user/hadoop/hello.txt
2. 小文档存储
实例:
(1)需要启动YARN进程
[hadoop@hadoop102 hadoop-2.7.2]$ start-yarn.sh
(2)归档文件
把/user/hadoop/input目录里面的所有文件归档成一个叫input.har的归档文件,并把归档后文件存储到/user/hadoop/output路径下。
[hadoop@hadoop102 hadoop-2.7.2]$ bin/hadoop archive -archiveName input.har –p /user/hadoop/input /user/hadoop/output
(3)查看归档
[hadoop@hadoop102 hadoop-2.7.2]$ hadoop fs -lsr /user/hadoop/output/input.har
[hadoop@hadoop102 hadoop-2.7.2]$ hadoop fs -lsr har:///user/hadoop/output/input.har
(4)解归档文件
[hadoop@hadoop102 hadoop-2.7.2]$ hadoop fs -cp har:/// user/hadoop/output/input.har/* /user/hadoop
3. 回收站
开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。
2)启用回收站
修改core-site.xml,配置垃圾回收时间为1分钟。
<property>
<name>fs.trash.interval</name>
<value>1</value>
</property>
3)查看回收站
回收站在集群中的路径:/user/hdfs/.Trash/….
4)修改访问垃圾回收站用户名称
进入垃圾回收站用户名称,默认是dr.who,修改为hadoop用户
[core-site.xml]
<property>
<name>hadoop.http.staticuser.user</name>
<value>hadoop</value>
</property>
5)通过程序删除的文件不会经过回收站,需要调用moveToTrash()才进入回收站
Trash trash = New Trash(conf);
trash.moveToTrash(path);
6)恢复回收站数据
[hadoop@hadoop102 hadoop-2.7.2]$ hadoop fs -mv
/user/hadoop/.Trash/Current/user/hadoop/input /user/hadoop/input
7)清空回收站
[hadoop@hadoop102 hadoop-2.7.2]$ hadoop fs -expunge