Hadoop fs常用命令

转自:http://blog.csdn.net/u012050154/article/details/54630691
1,Hadoop fs –fs [local | ]:声明hadoop使用的文件系统,如果不声明的话,使用当前配置文件配置的,按如下顺序查找:hadoop jar里的hadoop-default.xml-> HADOOPCONFDIRhadoopdefault.xml> HADOOP_CONF_DIR下的hadoop-site.xml。使用local代表将本地文件系统作为hadoop的DFS。如果传递uri做参数,那么就是特定的文件系统作为DFS。
2,hadoop fs –ls :等同于本地系统的ls,列出在指定目录下的文件内容,支持pattern匹配。输出格式如filename(full path) size.其中n代表replica的个数,size代表大小(单位bytes)。
3,hadoop fs –lsr :递归列出匹配pattern的文件信息,类似ls,只不过递归列出所有子目录信息。
4,hadoop fs –du :列出匹配pattern的指定的文件系统空间总量(单位bytes),等价于unix下的针对目录的du –sb /*和针对文件的du –b ,输出格式如name(full path) size(in bytes)。
5,hadoop fs –dus :等价于-du,输出格式也相同,只不过等价于unix的du -sb。
6,hadoop fs –mv :将制定格式的文件 move到指定的目标位置。当src为多个文件时,dst必须是个目录。
7,hadoop fs –cp :拷贝文件到目标位置,当src为多个文件时,dst必须是个目录。
8,hadoop fs –rm [-skipTrash] :删除匹配pattern的指定文件,等价于unix下的rm 。
9,hadoop fs –rmr [skipTrash] :递归删掉所有的文件和目录,等价于unix下的rm –rf 。
10,hadoop fs –rmi [skipTrash] :等价于unix的rm –rfi 。
11,hadoop fs –put … :从本地系统拷贝文件到DFS。
12,hadoop fs –copyFromLocal … :等价于-put。
13,hadoop fs –moveFromLocal … :等同于-put,只不过源文件在拷贝后被删除。
14,hadoop fs –get [-ignoreCrc] [-crc] :从DFS拷贝文件到本地文件系统,文件匹配pattern,若是多个文件,则dst必须是目录。
15,hadoop fs –getmerge :顾名思义,从DFS拷贝多个文件、合并排序为一个文件到本地文件系统。
16,hadoop fs –cat :展示文件内容。
17,hadoop fs –copyToLocal [-ignoreCrc] [-crc] :等价于-get。
18,hadoop fs –mkdir :在指定位置创建目录。
19,hadoop fs –setrep [-R] [-w]

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值