1、文件列表
[root@BigData ~]# hadoop fs -ls /
2、创建目录
[root@BigData ~]# hadoop fs -mkdir /input
3、文件上传
[root@BigData ~]# hadoop fs -put spark-1.6.1.tgz /input
4、文件下载
[root@BigData ~]# hadoop fs -get /input/spark-1.6.1.tgz
5、追加内容
[root@BigData ~]# hadoop fs -appendToFile test02.txt /input/test01.txt
6、查看内容
[root@BigData ~]# hadoop fs -cat /input/test01.txt
7、移动文件
[root@BigData ~]# hadoop fs -mv /input/test01.txt /
8、删除文件
[root@BigData ~]# hadoop fs -rm /input
9、设置副本
[root@BigData ~]# hadoop fs -setrep -R 1 /
[root@BigData ~]# hadoop fs -ls /
2、创建目录
[root@BigData ~]# hadoop fs -mkdir /input
3、文件上传
[root@BigData ~]# hadoop fs -put spark-1.6.1.tgz /input
4、文件下载
[root@BigData ~]# hadoop fs -get /input/spark-1.6.1.tgz
5、追加内容
[root@BigData ~]# hadoop fs -appendToFile test02.txt /input/test01.txt
6、查看内容
[root@BigData ~]# hadoop fs -cat /input/test01.txt
7、移动文件
[root@BigData ~]# hadoop fs -mv /input/test01.txt /
8、删除文件
[root@BigData ~]# hadoop fs -rm /input
9、设置副本
[root@BigData ~]# hadoop fs -setrep -R 1 /