1.ls
[root@hb ~]# hadoop fs -ls /
查询根目录下的文件;
[root@hb ~]# hadoop fs -ls -R /
递归查看根,目录下所有的文件和目录
2.mkdir
[root@hb ~]# hadoop fs -mkdir /testa
在根目录上创建一个test文件夹
查看:hadoop fs -l / 就可以看到下面文件:一个上传的test.txt文件和一个test的文件夹
[root@hb ~]# hadoop fs -mkdir -p /testa/a/b
递归创建文件夹,即一次在testa下创建a文件夹,又在a文件夹下创建b文件夹
3.put
[root@hb ~]# hadoop fs -put /etc/hosts /testa
将etc目录下的hosts文件上传到根目录
4.get
将hdfs的文件拿到本地
[root@hb ~]# hadoop fs -get /testa/hosts
5.rm
[root@hb ~]# hadoop fs -rm /testa/hosts
删除文件 hadoop fs -rm /testa/hosts
[root@hb ~]# hadoop fs -rm -R /testa
删除文件夹
6:text
[root@hb ~]# hadoop fs -text /testa/a.txt
查看指定文件的内容
7.copyFormLocal
hadoop fs -copyFromLocal /usr/local/a.txt /testa/h.txt
将本地的文件拷贝到dfs的指定目录