Hadoop实用命令

靠谱的和大家分享,以下命令本人均试过哦,如果在你那里不可以一定是存在别的原因,比如Apache hadoop的版本不相同使用的命令行也会有所差异。比如版本是0.x 或者1.x使用命令bin/hadoop hdfs fs -mkdir -p /in,版本是2.x.使用命令bin/hdfs  dfs  -mkdir -p /in。还需要注意的一点是路径的表示问题。. 表示当前目录,..表示上级目录,首先要进入到hdfs的根目录下查看有哪些文件,然后便于操作。

bin/hdfs dfs -ls /. 列出hdfs文件系统根目录下的目录和文件,以下的命令均基于本人的实验环境哦。

1 hadoop version

bin/hdfs dfs -ls /cloudwave/log  查看/cloudwave/log目录下的文件

3 bin/hdfs dfs -cat /cloudwave/log/MASTER_LOG_1478590  查看文件MASTER_LOG_1478590的内容

4 bin/hdfs dfs -mkdir -p /cloudwave/log/123.txt  创建空白文件123.txt

5 bin/hdfs dfs -appendToFile /usr/local/cloudwave-ha-3.4.9.backup/my/124.txt /cloudwave/log4/  把文件124.txt 从本地上传到hdfs的目录/cloudwave/log4/下面

6 bin/hdfs dfs -chgrp -R cloudwave /cloudwave/log4/ 修改文件/cloudwave/log4/ 的所属组

7 bin/hdfs dfs -chown -R cloudwave /cloudwave/log4/ 修改文件/cloudwave/log4/ 的权限,修改文件所有者,文件所属组,其他用户的读、写、执行权限

8 bin/hdfs dfs -copyFromLocal /usr/local/cloudwave-ha-3.4.9.backup/my/124.txt /cloudwave/log4/ 从本地把文件124.txt 复制到/cloudwave/log4目录下

9 bin/hdfs dfs -copyToLocal /cloudwave/log/124.txt /usr/local/cloudwave-ha-3.4.9.backup/my/ 从/cloudwave/log目录下把文件124.txt 复制到本地

10 bin/hdfs dfs -count /cloudwave/log/  统计目录/cloudwave/log/ 下的文件及文件夹数目

11 bin/hdfs dfs -cp -f /cloudwave/log/124.txt /cloudwave/log4/  文件系统hdfs下文件124.txt 的复制

12 bin/hdfs dfs -du -h /cloudwave/log4/  统计目录/cloudwave/log4/下的文件及大小

13 hdfs dfs -expunge 清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除

14 bin/hdfs dfs -get /cloudwave/log/124.txt /usr/local/cloudwave-ha-3.4.9.backup/  下载文件124.txt 到本地目录

15 bin/hdfs dfs -getmerge /cloudwave/log/124.txt /usr/local/cloudwave-ha-3.4.9.backup/124.txt  合并下载124.txt文件到本地

16 bin/hdfs dfs -lsr /cloudwave/log 循环列出目录/cloudwave/log、子目录及文件信息

17 bin/hdfs dfs -mkdir -p /cloudwave/log5/124.txt 创建文件夹log5以及文件124.txt

18 bin/hdfs dfs -moveFromLocal /usr/local/cloudwave-ha-3.4.9.backup/my/125.txt /cloudwave/log5 从本地剪切文件125.txt到hdfs

19 hdfs dfs -mv URI [URI ...] <dest> 剪切hdfs文件

20 hdfs dfs -put <localsrc> ... <dst> 上传文件

21 hdfs dfs -rm [-skipTrash] URI [URI ...] 删除文件/空白文件夹

22 hdfs dfs -rmr [-skipTrash] URI [URI ...] 递归删除  删除文件及文件夹下的所有文件

23 hdfs dfs -setrep [-R] [-w] <numReplicas> <path> 修改副本数

24 hdfs dfs -stat URI [URI ...] 显示文件统计信息

25 hdfs dfs -tail [-f] URI 查看文件尾部信息

26 hdfs dfs -test -[ezd] URI, 对PATH进行如下类型的检查:-e PATH是否存在,如果PATH存在,返回0,否则返回1 ,-z 文件是否为空,如果长度为0,返回0,否则返回1,-d 是否为目录,如果PATH为目录,返回0,否则返回1.

27 hdfs dfs -text <src> 查看文件内容

28 hdfs dfs -touchz URI [URI ...] 创建长度为0的空文件


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值