基本语法
bin/hadoop fs 具体命令
或者
bin/hdfs dfs 具体命令
dfs是fs的实现类
常用命令:
-
-help
:输出这个命令参数[hadoop100@hadoop104 subdir0]$ hadoop fs -help rm -rm [-f] [-r|-R] [-skipTrash] <src> ... : Delete all files that match the specified file pattern. Equivalent to the Unix command "rm <src>" -skipTrash option bypasses trash, if enabled, and immediately deletes <src> -f If the file does not exist, do not display a diagnostic message or modify the exit status to reflect an error. -[rR] Recursively deletes directories
-
-mkdir
:在HDFS上创建目录hadoop fs -mkdir -p /test
-
-moveFromLocal
:从本地剪切粘贴到HDFShadoop fs -moveFromLocal 本地文件 HDFS路径
-
-appendToFile
:追加一个文件到已经存在的文件末尾、hadoop fs -appendToFile 本地文件 HDFS目标文件
-
-cat
:显示文件内容 -
-chgrp
、-chmod
、-chown
:Linux文件系统中的用法一样,修改文件所属权限 -
-copyFromLocal
:从本地文件系统中拷贝文件到HDFS路径去hadoop fs -copyFromLocal 本地文件 HDFS路径
-
-copyToLocal
:从HDFS拷贝到本地hadoop fs -copyToLocal HDFS文件路径 本地路径
-
-cp
:从HDFS的一个路径拷贝到HDFS的另一个路径 -
-mv
:在HDFS目录中移动文件 -
-get
:等同于copyToLocal,就是从HDFS下载文件到本地hadoop fs -get HDFS文件路径 本地路径
-
-getmerge
:合并下载多个文件,比如HDFS的目录 /user/atguigu/test下有多个文件:log.1, log.2,log.3,…hadoop fs -getmerge /user/atguigu/test/* ./zaiyiqi.txt
-
-put
:等同于copyFromLocalhadoop fs -put 本地文件 HDFS路径
-
-tail
:显示一个文件的末尾 -
-rm
:删除文件或文件夹 -
-rmdir
:删除空目录 -
-du
统计文件夹的大小信息 -
-setrep
:设置HDFS中文件的副本数量hadoop fs -setrep 10 /zqq.txt
这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。