HDFS常用操作命令练习

练习在全分布式模式下启动了HDFS集群以及YARN集群

我的HDFS主节点配置在master,YARN管理主节点配置在slave1上

一、启动HDFS
在master主机下:

cd /opt/apps/hadoop-2.7.3/sbin
start-dfs.sh

如果是第一次启动需要先格式化

hdfs namenode -format

二、启动YARN集群
在slave1主机下

cd /opt/apps/hadoop-2.7.3/sbin
start-yarn.sh

三、命令练习
在主节点master上进行(其他节点也可以):
web端打开master:50070查看我们的操作结果是否和预期一样
1、创建文件夹:hadoop fs -mkdir /目录名
例如:我们在根目录下创建一个文件夹opt

hadoop fs -mkdir /opt

由于我们这个集群式新建的,所以里面根目录下没有文件,我们在这里多创建几个文件夹,方便后面练习使用

hadoop fs -mkdir /home

跟linux创建目录一样我们一样可以使用-p来实现创建子目录的同事创建上级目录

hadoop fs -mkdir -p /suport/install

如果不写-p就会提示,没有suport这个目录
2、查看HDFS目录:hadoop fs -ls 目录路径
例如:查看根目录

[root@master sbin] hadoop fs -ls /
Found 3 items
drwxr-xr-x   - root supergroup          0 2020-04-01 15:54 /home
drwxr-xr-x   - root supergroup          0 2020-04-01 15:54 /opt
drwxr-xr-x   - root supergroup          0 2020-04-01 15:55 /suport

同样如果需要递归显示文件夹下的所有文件/目录那么在后面加-R

[root@master sbin] hadoop fs -ls -R /
drwxr-xr-x   - root supergroup          0 2020-04-01 15:54 /home
drwxr-xr-x   - root supergroup          0 2020-04-01 15:54 /opt
drwxr-xr-x   - root supergroup          0 2020-04-01 15:54 /opt/data
drwxr-xr-x   - root supergroup          0 2020-04-01 15:55 /suport
drwxr-xr-x   - root supergroup          0 2020-04-01 15:55 /suport/install

3、上传文件:hadoop fs -put 文件HDFS目录

[root@master data] vi a.txt
[root@master data] hadoop fs -put a.txt /opt/data

在这里插入图片描述
4、下载文件:hadoop fs -get HDFS文件 本地文件
hadoop fs -copyToLocal HDFS文件 本地文件

[root@master data] hadoop fs -get /opt/data/a.txt b.txt
[root@master data] ll
总用量 8
-rw-r--r--. 1 root root 73 4月   1 16:06 a.txt
-rw-r--r--. 1 root root 73 4月   1 16:14 b.txt
drwxr-xr-x. 4 root root 30 3月  31 17:25 dfs
drwxr-xr-x. 5 root root 57 4月   1 16:13 nm-local-dir
[root@master data]# cat b.txt 
chakabhdfsxitonggenmuluxiadesuoyouwenjianbaokuowenjianjialimiandewenjian

下载到指定文件,如果指定文件没有,会自动创建
方法2:

[root@master data] hadoop fs -copyToLocal /opt/data/a.txt c.txt
[root@master data] ll
总用量 12
-rw-r--r--. 1 root root 73 4月   1 16:06 a.txt
-rw-r--r--. 1 root root 73 4月   1 16:14 b.txt
-rw-r--r--. 1 root root 73 4月   1 16:16 c.txt
drwxr-xr-x. 4 root root 30 3月  31 17:25 dfs
drwxr-xr-x. 5 root root 57 4月   1 16:15 nm-local-dir

合并下载:

[root@master data] hadoop fs -getmerge /opt/data/a.txt /home/c.txt plus.txt
[root@master data] ll
总用量 16
-rw-r--r--. 1 root root  73 4月   1 16:06 a.txt
-rw-r--r--. 1 root root  73 4月   1 16:14 b.txt
-rw-r--r--. 1 root root  73 4月   1 16:16 c.txt
drwxr-xr-x. 4 root root  30 3月  31 17:25 dfs
drwxr-xr-x. 5 root root  57 4月   1 16:19 nm-local-dir
-rw-r--r--. 1 root root 146 4月   1 16:21 plus.txt
[root@master data] cat plus.txt 
chakabhdfsxitonggenmuluxiadesuoyouwenjianbaokuowenjianjialimiandewenjian
chakabhdfsxitonggenmuluxiadesuoyouwenjianbaokuowenjianjialimiandewenjian

5、复制文件(从HDFS的一个路径复制到HDFS的另一个路径)
hadoop fs -cp 源路径 目标路径

[root@master data] hadoop fs -cp /home/c.txt /opt/data/

在这里插入图片描述
6、移动文件
在HDFS中移动文件

hadoop fs -mv /opt/data/a.txt /home/

在这里插入图片描述
在这里插入图片描述
7、删除操作
hadoop fs -rm 要删除的文件

[root@master data] hadoop fs -rm /home/c.txt
20/04/01 16:33:40 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes.
Deleted /home/c.txt

删除空文件夹
先建一个空文件夹

hadoop fs -mkdir /opt/data/null
hadoop fs -rmdir /opt/data/null

8、从本地剪切文件到HDFS上

hadoop fs -moveFromLocal plus.txt /opt/data/

在这里插入图片描述
9、追加文件

[root@master data]# hadoop fs -appendToFile x.txt /opt/data/c.txt
[root@master data]# hadoop fs -get /opt/data/c.txt apaend.txt
[root@master data]# cat apaend.txt 
chakabhdfsxitonggenmuluxiadesuoyouwenjianbaokuowenjianjialimiandewenjian
zhuijia

可见该操作是在将x.txt中的内容追加到c.txt内容之后
10、查看文件内容

[root@master data]# hadoop fs -cat /opt/data/c.txt
chakabhdfsxitonggenmuluxiadesuoyouwenjianbaokuowenjianjialimiandewenjian
zhuijia

11、改变文件所属组
hadoop fs -chgrp [-R] 目标用户组 文件/目录路径
注意:如果刚启动集群,会有短暂的安全模式,不能进行修改用户组操作

hadoop fs -chgrp hadoopgroup /opt/data/

在这里插入图片描述
12、改变文件的权限
使用方法:hadoop fs -chmod [-R] 权限模式 文件/目录路径

hadoop fs -chmod 777 /opt/data/plus.txt

变更前:644
变更前权限
变更后:777
在这里插入图片描述
13、改变文件拥有者
hadoop fs -chown [-R] 拥有者:所属组 文件/目录路径
改变前:
在这里插入图片描述
改变后:
在这里插入图片描述
14、显示目录下所有文件的大小
使用方法:hadoop fs -du 目录路径

[root@master sbin]# hadoop fs -du /opt/data/
81   /opt/data/c.txt
146  /opt/data/plus.txt

显示单个文件的大小

[root@master sbin]# hadoop fs -dus /opt/data/c.txt
dus: DEPRECATED: Please use 'du -s' instead.
81  /opt/data/c.txt

15、清空回收站

hadoop fs -expunge

HDFS回收站默认是关闭的,需要开启需要我们自己在core-site.xml里面配置

 <property>  
      <name>fs.trash.interval</name>  
      <value>1440</value>  
 </property>  

开启回收站后我们在HDFS上面删除的内容会在本地的一个目录重命名暂时存储一段时间,这段时间内我们可以可以通过-mv命令进行恢复
16、改变一个文件的副本系数
hadoop fs -setrep -w 3 [-R] 文件路径

[root@master current]# hadoop fs -setrep -w 4 /opt/data/c.txt
Replication 4 set: /opt/data/c.txt
Waiting for /opt/data/c.txt .... done

改变副本数前:
在这里插入图片描述
改变后:
在这里插入图片描述
17、将尾部的1k字节的内容标准输出
使用方法:hadoop fs -tail [-f] 文件路径

[root@master current]# hadoop fs -tail /opt/data/plus.txt
chakabhdfsxitonggenmuluxiadesuoyouwenjianbaokuowenjianjialimiandewenjian
chakabhdfsxitonggenmuluxiadesuoyouwenjianbaokuowenjianjialimiandewenjian

18、文件、目录检测
使用方法:hadoop fs -test -[ezd] 文件/目录路径
-e(exist)检查文件是否存在
-z(zero)检查文件是否0字节
-d(dir)检查路径是否是目录

19、查看集群的工作状态

hdfs dfsadmin -report
[root@master hadoop-2.7.3]# hdfs dfsadmin -report
Configured Capacity: 105149632512 (97.93 GB)
Present Capacity: 95158509568 (88.62 GB)
DFS Remaining: 95158378496 (88.62 GB)
DFS Used: 131072 (128 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0

-------------------------------------------------
Live datanodes (4):

Name: 192.168.180.101:50010 (slave2)
Hostname: slave2
Decommission Status : Normal
Configured Capacity: 18238930944 (16.99 GB)
DFS Used: 36864 (36 KB)
Non DFS Used: 2665152512 (2.48 GB)
DFS Remaining: 15573741568 (14.50 GB)
DFS Used%: 0.00%
DFS Remaining%: 85.39%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Wed Apr 01 18:52:15 CST 2020


Name: 192.168.180.102:50010 (slave3)
Hostname: slave3
Decommission Status : Normal
Configured Capacity: 18238930944 (16.99 GB)
DFS Used: 28672 (28 KB)
Non DFS Used: 2665164800 (2.48 GB)
DFS Remaining: 15573737472 (14.50 GB)
DFS Used%: 0.00%
DFS Remaining%: 85.39%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Wed Apr 01 18:52:15 CST 2020


Name: 192.168.180.100:50010 (slave1)
Hostname: slave1
Decommission Status : Normal
Configured Capacity: 18238930944 (16.99 GB)
DFS Used: 28672 (28 KB)
Non DFS Used: 2223280128 (2.07 GB)
DFS Remaining: 16015622144 (14.92 GB)
DFS Used%: 0.00%
DFS Remaining%: 87.81%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Wed Apr 01 18:52:15 CST 2020


Name: 192.168.180.88:50010 (master)
Hostname: localhost
Decommission Status : Normal
Configured Capacity: 50432839680 (46.97 GB)
DFS Used: 36864 (36 KB)
Non DFS Used: 2437525504 (2.27 GB)
DFS Remaining: 47995277312 (44.70 GB)
DFS Used%: 0.00%
DFS Remaining%: 95.17%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Wed Apr 01 18:52:14 CST 2020

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值