HDFS命令

		   [-ls <path>]                                                    # hadoop fs -ls /         查看路径下的文件
           [-lsr <path>]                                                   # Hadoop fs -lsr (/path)  递归查看目录
           [-du <path>]                                                    # hadoop fs -du /a.txt    查看a.txt文件的大小
           [-dus <path>]                                                   # 与 -du 显示方式不同
           [-count[-q] <path>]                                             # 显示目标路径下文件个数   子目录数[-q]、文件数[-h]、文件大小[-v]、文件名/目录名[dst]
           [-mv <src> <dst>]                                               # 与sh相同,移动并剪贴
           [-cp <src> <dst>]                                               # copy
           [-rm [-skipTrash] <path>]                                       # 删除
           [-rmr [-skipTrash] <path>]                                      # 递归删除
           [-expunge]                                                      # -expunge 清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除
           [-put <localsrc> ... <dst>]                                     # 上传  hadoop fs -put (localfilepath)  (hdfsfilepath)
           [-copyFromLocal <localsrc> ... <dst>]                           # copy本地到hdfs                    
           [-moveFromLocal <localsrc> ... <dst>]                           # 从本地上传到hdfs,并删除本地文件
           [-get [-ignoreCrc] [-crc] <src> <localdst>]                     # 把数据从hdfs上down下来    hadoop fs -get /a.txt .    目标路径文件 ——> 本地路径
           [-getmerge <src> <localdst> [addnl]]                            # 将hdfs的多个文件合并后下载到本地(如果hdfs的多个文件是明文状态,推荐使用这种方法) 
																				hadoop fs -getmerge /output .  目标路径文件 ——> 本地路径
           [-cat <src>]                                                    # 查看hdfs上文件  hadoop fs -cat /a.txt
           [-text <src>]                                                   # 获取源文件并以文本格式输出该文件。允许的格式是zip和TextRecordInputStream和Avro
           [-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>]             # 将hdfs文件下载到本地     目标路径文件 ——> 本地路径
           [-moveToLocal [-crc] <src> <localdst>]                          # 从hdfs上移动至本地       
           [-mkdir <path>]                                                 # 在hdfs上创建文件   hadoop fs -mkdir /tmp_dir
           [-setrep [-R] [-w] <rep> <path/file>]                           # 设置文件的复制级别
           [-touchz <path>]                                                # 在path处创建一个0长度的文件,当前时间作为时间戳  <路径>如果文件的长度不为零,则返回错误
           [-test -[ezd] <path>]                                           # 判断文件是否存在,参数相同与sh 
           [-stat [format] <path>]                                         # 查看文件状态  以指定格式打印文件/目录的统计信息,其中,%b-块、%g-所属组 、%n-文件名、%o块大小、%u用户名
           [-tail [-f] <file>]                                             # 类似与sh
           [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]              # 改变文件权限 类似与sh   hadoop fs -chmod 777 /a.txt
           [-chown [-R] [OWNER][:[GROUP]] PATH...]                         # 更改文件所属者
           [-chgrp [-R] GROUP PATH...]                                     # 改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。
																			hadoop fs -chgrp -R hadoop /user/hadoop/
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值