一. -ls 查看目录信息
[root@bigdata01 hadoop-3.2.0]# hdfs dfs -ls hdfs://bigdata01:9000/
[root@bigdata01 hadoop-3.2.0]#
hdfs中url这一串内容在使用时默认是可以省略的,因为hdfs在执行的时候会根据HADOOP_HOME自动识别配置文件中的fs.defaultFS属性
所以这样简写也是可以的:
[root@bigdata01 hadoop-3.2.0]# hdfs dfs -ls /
[root@bigdata01 hadoop-3.2.0]#
二. -put 从本地上传文件
[root@bigdata01 hadoop-3.2.0]# hdfs dfs -put README.txt /
上传成功之后没有任何提示,注意,没有任何提示表示成功.
三. -cat 查看HDFS文件内容
[root@bigdata01 hadoop-3.2.0]# hdfs dfs -cat /README.txt
For the latest information about Hadoop, please visit our website at:
http://hadoop.apache.org/
and our wiki, at:
http://wiki.apache.org/hadoop/
...........
四. -get 下载文件到本地
[root@bigdata01 hadoop-3.2.0]# hdfs dfs -get /README.txt .
get: `README.txt': File exists
注意,这样执行报错了,提示文件已存在,表示LINUX目录中已经有这个文件了,要么换其他目录,要么给文件重命名.
五. -mkdir [-p] 创建文件目录
[root@bigdata01 hadoop-3.2.0]# hdfs dfs -mkdir /test
[root@bigdata01 hadoop-3.2.0]# hdfs dfs -ls /
Found 2 items
-rw-r--r-- 2 root supergroup 1361 2020-04-08 15:34 /README.txt
drwxr-xr-x - root supergroup 0 2020-04-08 15:43 /test
六. -rm [-r] 删除文件/目录
[root@bigdata01 hadoop-3.2.0]# hdfs dfs -rm /README.txt
Deleted /README.txt