[-ls <path>] # hadoop fs -ls / 查看路径下的文件
[-lsr <path>] # Hadoop fs -lsr (/path) 递归查看目录
[-du <path>] # hadoop fs -du /a.txt 查看a.txt文件的大小
[-dus <path>] # 与 -du 显示方式不同
[-count[-q] <path>] # 显示目标路径下文件个数 子目录数[-q]、文件数[-h]、文件大小[-v]、文件名/目录名[dst]
[-mv <src> <dst>] # 与sh相同,移动并剪贴
[-cp <src> <dst>] # copy
[-rm [-skipTrash] <path>] # 删除
[-rmr [-skipTrash] <path>] # 递归删除
[-expunge] # -expunge 清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除
[-put <localsrc> ... <dst>] # 上传 hadoop fs -put (localfilepath) (hdfsfilepath)
[-copyFromLocal <localsrc> ... <dst>] # copy本地到hdfs
[-moveFromLocal <localsrc> ... <dst>] # 从本地上传到hdfs,并删除本地文件
[-get [-ignoreCrc] [-crc] <src> <localdst>] # 把数据从hdfs上down下来 hadoop fs -get /a.txt . 目标路径文件 ——> 本地路径
[-getmerge <src> <localdst> [addnl]] # 将hdfs的多个文件合并后下载到本地(如果hdfs的多个文件是明文状态,推荐使用这种方法)
hadoop fs -getmerge /output . 目标路径文件 ——> 本地路径
[-cat <src>] # 查看hdfs上文件 hadoop fs -cat /a.txt
[-text <src>] # 获取源文件并以文本格式输出该文件。允许的格式是zip和TextRecordInputStream和Avro
[-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>] # 将hdfs文件下载到本地 目标路径文件 ——> 本地路径
[-moveToLocal [-crc] <src> <localdst>] # 从hdfs上移动至本地
[-mkdir <path>] # 在hdfs上创建文件 hadoop fs -mkdir /tmp_dir
[-setrep [-R] [-w] <rep> <path/file>] # 设置文件的复制级别
[-touchz <path>] # 在path处创建一个0长度的文件,当前时间作为时间戳 <路径>如果文件的长度不为零,则返回错误
[-test -[ezd] <path>] # 判断文件是否存在,参数相同与sh
[-stat [format] <path>] # 查看文件状态 以指定格式打印文件/目录的统计信息,其中,%b-块、%g-所属组 、%n-文件名、%o块大小、%u用户名
[-tail [-f] <file>] # 类似与sh
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...] # 改变文件权限 类似与sh hadoop fs -chmod 777 /a.txt
[-chown [-R] [OWNER][:[GROUP]] PATH...] # 更改文件所属者
[-chgrp [-R] GROUP PATH...] # 改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。
hadoop fs -chgrp -R hadoop /user/hadoop/
HDFS命令
最新推荐文章于 2023-07-07 16:39:42 发布