Hadoop常见命令 完整版

1、列出根目录下所有的目录或文件

hadoop fs -ls /

 

2、列出/user目录下的所有目录和文件

Hadoop  dfs  -ls  /user

 

3、列出/user目录及其子目录下的所有文件(谨慎使用)

hadoop dfs -ls -R /user

 

4、创建/soft目录

hadoop dfs -mkdir /soft

 

5、创建多级目录

hadoop dfs -mkdir -p /apps/windows/2017/01/01

 

6、创建一个空文件

hadoop dfs -touchz /wahaha

 

7、上传文件或目录到hdfs

hadoop dfs -put hello /

hadoop dfs -put hellodir/ /

 

8、将本地的wordcount.jar文件上传到/wordcount目录下

hadoop dfs -put wordcount.jar /wordcount

 

9、下载words.txt文件到本地

hadoop dfs -get /words.txt 

 

10、将/stu/students.txt文件拷贝到本地

hadoop dfs -copyToLocal /stu/students.txt

 

11、将目录拷贝到本地

hadoop dfs -copyToLocal /home localdir

 

12、将word.txt文件拷贝到/wordcount/input/目录

hadoop dfs -copyFromLocal word.txt /wordcount/input 

 

13、将word.txt文件从本地移动到/wordcount/input/目录下

hadoop dfs -moveFromLocal word.txt /wordcount/input/

 

14、将/stu/students.txt拷贝一份为/stu/students.txt.bak

hadoop dfs -cp /stu/students.txt /stu/students.txt.bak 

 

15、将/flume/tailout/目录下的子目录或文件都拷贝到/logs目录(如果此目录不存在会创建)下

hadoop dfs -cp /flume/tailout/ /logs 

 

16、重命名

hadoop dfs -mv /hello /hello2

 

17、将/word.txt文件重命名为/words.txt

hadoop dfs -mv /word.txt /words.txt

 

18、将/words.txt文件移动到/wordcount/input/目录下

hadoop dfs -mv /words.txt /wordcount/input/

 

19、删除一个文件

hadoop dfs -rm /wahaha


20、删除一个目录

hadoop dfs -rmr /home

 

21、将/ws目录以及子目录和文件都删除(谨慎使用)

hadoop dfs -rm -r /ws 

 

22、删除以"xbs-"开头的目录及其子目录

hadoop dfs -rm -r /xbs-*

 

23、将/wordcount/output2/目录下的a.txt文件删除

hadoop dfs -rm /wordcount/output2/a.txt 

 

24、将/wordcount/input/目录下面的所有文件都删除

hadoop dfs -rm /wordcount/input/*

 

25、查看HDFS集群的磁盘空间使用情况

hadoop dfs -df -h 


26、查看文件

hadoop dfs -cat /hello

 

27、查看/word.txt文件的内容

hadoop dfs -cat /word.txt 

 

28、将name.txt文件中的内容添加到/wordcount/input/words.txt文件中

hadoop dfs -appendToFile name.txt /wordcount/input/words.txt

 

29、动态查看/wordcount/input/words.txt文件的内容

hadoop dfs -tail -f /wordcount/input/words.txt

 

30、统计/flume目录总大小

hadoop dfs -du -s -h /flume

 

31、分别统计/flume目录下各个子目录(或文件)大小

hadoop dfs -du -s -h /flume/*

 

32、使用du文件和目录大小

hadoop dfs -du /

 

33、将指定目录下的所有内容merge成一个文件,下载到本地

hadoop dfs -getmerge /hellodir wa

 

34、运行jar包中的程序

//hadoop jar + 要执行的jar包 + 要运行的类 + 输入目录 + 输出目录
hadoop jar wordcount.jar com.xuebusi.hadoop.mr.WordCountDriver /wordcount/input /wordcount/out

 

35、查看hdfs集群状态

hdfs dfsadmin -report

 

36、查看dfs的情况

hadoop dfsadmin -report

 

37、查看正在跑的Java程序

jps

 

38、查看hadoop fs命令使用帮助

hdfs dfs -help      

 

 

39、常用命令

    1、查看指定目录下内容

   hdfs dfs –ls [文件目录]

    hdfs dfs -ls -R   /                   //显式目录结构

    eg: hdfs dfs –ls /user/wangkai.pt

   2、打开某个已存在文件

    hdfs dfs –cat [file_path]

   eg:hdfs dfs -cat /user/wangkai.pt/data.txt

  3、将本地文件存储至hadoop

     hdfs dfs –put [本地地址] [hadoop目录]

     hdfs dfs –put /home/t/file.txt  /user/t  

  4、将本地文件夹存储至hadoop

    hdfs dfs –put [本地目录] [hadoop目录] 
    hdfs dfs –put /home/t/dir_name /user/t

   (dir_name是文件夹名)

  5、将hadoop上某个文件down至本地已有目录下

     hadoop dfs -get [文件目录] [本地目录]

     hadoop dfs –get /user/t/ok.txt /home/t

  6、删除hadoop上指定文件

     hdfs  dfs –rm [文件地址]

     hdfs dfs –rm /user/t/ok.txt

  7、删除hadoop上指定文件夹(包含子目录等)

     hdfs dfs –rm [目录地址]

     hdfs dfs –rmr /user/t

  8、在hadoop指定目录内创建新目录

      hdfs dfs –mkdir /user/t

      hdfs  dfs -mkdir - p /user/centos/hadoop 

  9、在hadoop指定目录下新建一个空文件

    使用touchz命令:

    hdfs dfs  -touchz  /user/new.txt

  10、将hadoop上某个文件重命名

   使用mv命令:

   hdfs dfs –mv  /user/test.txt  /user/ok.txt   (将test.txt重命名为ok.txt)

  11、将hadoop指定目录下所有内容保存为一个文件,同时down至本地

   hdfs dfs –getmerge /user /home/t

  12、将正在运行的hadoop作业kill掉

   hadoop job –kill  [job-id]

  13.查看帮助

  hdfs dfs -help        

 

 

40、安全模式

  (1)退出安全模式

      NameNode在启动时会自动进入安全模式。安全模式是NameNode的一种状态,在这个阶段,文件系统不允许有任何修改。

      系统显示Name node in safe mode,说明系统正处于安全模式,这时只需要等待十几秒即可,也可通过下面的命令退出安全模式:/usr/local/hadoop$bin/hadoop dfsadmin -safemode leave

  (2) 进入安全模式
    在必要情况下,可以通过以下命令把HDFS置于安全模式:/usr/local/hadoop$bin/hadoop dfsadmin -safemode enter

 

41、节点添加

添加一个新的DataNode节点,先在新加节点上安装好Hadoop,要和NameNode使用相同的配置(可以直接从NameNode复制),修改HADOOPHOME/conf/master文件,加入NameNode主机名。然后在NameNode节点上修改HADOOPHOME/conf/master文件,加入NameNode主机名。然后在NameNode节点上修改HADOOP_HOME/conf/slaves文件,加入新节点名,再建立新加节点无密码的SSH连接,运行启动命令为:/usr/local/hadoop$bin/start-all.sh

 

42、负载均衡

HDFS的数据在各个DataNode中的分布可能很不均匀,尤其是在DataNode节点出现故障或新增DataNode节点时。新增数据块时NameNode对DataNode节点的选择策略也有可能导致数据块分布不均匀。用户可以使用命令重新平衡DataNode上的数据块的分布:/usr/local/hadoop$bin/start-balancer.sh
 

43、补充

1.对hdfs操作的命令格式是hdfs dfs  
1.1 -ls 表示对hdfs下一级目录的查看
1.2 -lsr 表示对hdfs目录的递归查看
1.3 -mkdir 创建目录
1.4 -put 从Linux上传文件到hdfs
1.5 -get 从hdfs下载文件到linux
1.6 -text 查看文件内容
1.7 -rm 表示删除文件
1.7 -rmr 表示递归删除文件
2.hdfs在对数据存储进行block划分时,如果文件大小超过block,那么按照block大小进行划分;不如block size的,划分为一个块,是实际数据大小。
*****PermissionDenyException  权限不足**********  
hadoop常用命令:  
hdfs dfs  查看Hadoop HDFS支持的所有命令   
hdfs dfs –ls  列出目录及文件信息   
hdfs dfs –lsr  循环列出目录、子目录及文件信息   
hdfs dfs –put test.txt /user/sunlightcs  将本地文件系统的test.txt复制到HDFS文件系统的/user/sunlightcs目录下   
hdfs dfs –get /user/sunlightcs/test.txt .  将HDFS中的test.txt复制到本地文件系统中,与-put命令相反   
hdfs dfs –cat /user/sunlightcs/test.txt  查看HDFS文件系统里test.txt的内容   
hdfs dfs –tail /user/sunlightcs/test.txt  查看最后1KB的内容   
hdfs dfs –rm /user/sunlightcs/test.txt  从HDFS文件系统删除test.txt文件,rm命令也可以删除空目录   
hdfs dfs –rmr /user/sunlightcs  删除/user/sunlightcs目录以及所有子目录   
hdfs dfs –copyFromLocal test.txt /user/sunlightcs/test.txt  从本地文件系统复制文件到HDFS文件系统,等同于put命令   
hdfs dfs –copyToLocal /user/sunlightcs/test.txt test.txt  从HDFS文件系统复制文件到本地文件系统,等同于get命令   
hdfs dfs –chgrp [-R] /user/sunlightcs  修改HDFS系统中/user/sunlightcs目录所属群组,选项-R递归执行,跟linux命令一样   
hdfs dfs –chown [-R] /user/sunlightcs  修改HDFS系统中/user/sunlightcs目录拥有者,选项-R递归执行   
hdfs dfs –chmod [-R] MODE /user/sunlightcs  修改HDFS系统中/user/sunlightcs目录权限,MODE可以为相应权限的3位数或+/-{rwx},选项-R递归执行
hdfs dfs –count [-q] PATH  查看PATH目录下,子目录数、文件数、文件大小、文件名/目录名   
hdfs dfs –cp SRC [SRC …] DST       将文件从SRC复制到DST,如果指定了多个SRC,则DST必须为一个目录   
hdfs dfs –du PATH  显示该目录中每个文件或目录的大小   
hdfs dfs –dus PATH  类似于du,PATH为目录时,会显示该目录的总大小   
hdfs dfs –expunge  清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除   
hdfs dfs –getmerge SRC [SRC …] LOCALDST [addnl]      获取由SRC指定的所有文件,将它们合并为单个文件,并写入本地文件系统中的LOCALDST,选项addnl将在每个文件的末尾处加上一个换行符   
hdfs dfs –touchz PATH   创建长度为0的空文件   
hdfs dfs –test –[ezd] PATH     对PATH进行如下类型的检查:  -e PATH是否存在,如果PATH存在,返回0,否则返回1  -z 文件是否为空,如果长度为0,返回0,否则返回1  -d 是否为目录,如果PATH为目录,返回0,否则返回1   
hdfs dfs –text PATH  显示文件的内容,当文件为文本文件时,等同于cat,文件为压缩格式(gzip以及hadoop的二进制序列文件格式)时,会先解压缩    hdfs dfs –help ls  查看某个[ls]命令的帮助文档

 

 

本文参考链接

(1)hadoop-常用的操作命令

http://baijiahao.baidu.com/s?id=1605161577224027726&wfr=spider&for=pc

(2)hadoop常用操作命令

https://www.cnblogs.com/luren-hometown/p/9468364.html

(3)【Hadoop篇】--Hadoop常用命令总结

https://www.cnblogs.com/LHWorldBlog/p/8514994.html

 

 

  • 2
    点赞
  • 59
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

行走的数据智能

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值