hdfs 指令_HDFS常用命令操作

HDFS(Hadoop Distributed File System)是一种分布式文件系统,它具有高容错的特点,并且可以部署在廉价的通用硬件上,提高吞吐率的数据访问,适合那些需要处理海量数据集的应用程序。它提供了一套特有的、基于Hadoop抽象文件系统的API,支持以流的形式访问文件系统中的数据。本篇主要介绍HDFS的命令基本操作:

HDFS常用命令操作有:

hadoop fs -ls / (查询目录)

hadoop fs -mkdir /test (在根目录下创建一个目录test)

hadoop fs -put ./test.txt /test (将本地的test.txt文件上传到HDFS根目录下的test文件夹中去)

hadoop fs -copyFromLocal ./test.txt /test (同上)

hadoop fs -get /test/test.txt (从HDFS目录中获取文件)

hadoop fs -copyToLocal /test/test.txt (同上)

hadoop fs -cp /test/test.txt /test1 (HDFS内部的复制)

hadoop fs -rm /test1/test.txt (移除)

hadoop fs -mv /test/test.txt /test1 (如果两个目录是相同的,则该命令为重命名文件,否则为移动)

hadoop fs -rm -r /test1 (删除文件夹)

hadoop fs -help ls (查阅帮助,该命令为查看ls命令)

hadoop fs -cat README.txt(查看README.txt文件的内容)

首先确保Hadoop集群环境(可以参考前面的文章)可用,进入shell终端输入一下命令来对HDFS文件进行操作:

查询目录:hadoop fs -ls /

[root@probd01:/root]#hadoop fs -ls /

Found 8 items

drwxr-xr-x - root supergroup 0 2019-05-08 15:02 /data

drwxr-xr-x - root supergroup 0 2019-04-18 07:05 /hbase

drwxr-xr-x - root supergroup 0 2019-04-28 07:23 /import

drwxr-xr-x - root supergroup 0 2019-04-27 09:25 /demo

drwxr-xr-x - root supergroup 0 2019-04-09 07:05 /imported

drwxr-xr-x - root supergroup 0 2019-04-08 14:28 /spark223

drwxrwx--- - root supergroup 0 2019-05-08 15:04 /tmp

drwxr-xr-x - root supergroup 0 2019-04-08 13:47 /user

drwx-wx-wx - root supergroup 0 2019-04-08 13:25 /usr

列出来的是本集群的HDFS目录情况,包括权限、所有者、大小和修改时间。

创建目录:hadoop fs -mkdir /目录名

[root@probd01:/root]#hadoop fs -ls /

Found 9 items

drwxr-xr-x - root supergroup 0 2019-05-08 15:02 /data

drwxr-xr-x - root supergroup 0 2019-04-18 07:05 /hbase

drwxr-xr-x - root supergroup 0 2019-04-28 07:23 /import

drwxr-xr-x - root supergroup 0 2019-04-27 09:25 /demo

drwxr-xr-x - root supergroup 0 2019-04-09 07:05 /imported

drwxr-xr-x - root supergroup 0 2019-04-08 14:28 /spark223

drwxr-xr-x - root supergroup 0 2019-05-16 07:53 /test

drwxrwx--- - root supergroup 0 2019-05-08 15:04 /tmp

drwxr-xr-x - root supergroup 0 2019-04-08 13:47 /user

drwx-wx-wx - root supergroup 0 2019-04-08 13:25 /usr

上传文件到HDFS目录下:hadoop fs -put 本地文件路径 /HDFS目录 或者 hadoop fs -copyFromLocal 本地文件路径 /HDFS目录

首先我们用vim编写一个叫test.txt的文件,然后上传到HDFS中的test目录下。

[root@probd01:/root]#vim test.txt

hello HDFS

~

~

"test.txt" [New] 2L, 12C written

[root@probd01:/root]#

[root@probd01:/root]#hadoop fs -put ./test.txt /test

[root@probd01:/root]#hadoop fs -ls /test

Found 1 items

-rw-r--r-- 3 root supergroup 12 2019-05-16 08:02 /test/test.txt

[root@probd01:/root]#vim test1.txt

hello HDFS

~

~

"test1.txt" [New] 1L, 11C written

[root@probd01:/root]#

[root@probd01:/root]#hadoop fs -copyFromLocal test1.txt /test

[root@probd01:/root]#hadoop fs -ls /test

Found 2 items

-rw-r--r-- 3 root supergroup 12 2019-05-16 08:02 /test/test.txt

-rw-r--r-- 3 root supergroup 11 2019-05-16 08:09 /test/test1.txt

从HDFS中获取文件:hadoop fs -get /目录/文件名 或者 hadoop fs -copyToLocal /目录/文件名

[root@probd01:/root]#cd mytest/

[root@probd01:/root/mytest]#ls

[root@probd01:/root/mytest]#hadoop fs -get /test/test1.txt

[root@probd01:/root/mytest]#ls

test1.txt

[root@probd01:/root/mytest]#cat test1.txt

hello HDFS

[root@probd01:/root/mytest]#hadoop fs -copyToLocal /test/test.txt

[root@probd01:/root/mytest]#ls

test1.txt test.txt

[root@probd01:/root/mytest]#cat test.txt

hello HDFS

HDFS内部文件的复制: hadoop fs -cp /目录/文件名 /目录

[root@probd01:/root/mytest]#hadoop fs -cp /test/test.txt /test1

[root@probd01:/root/mytest]#hadoop fs -ls /test1

-rw-r--r-- 3 root supergroup 12 2019-05-16 08:24 /test1

HDFS文件的移除:hadoop fs -rm /目录/文件名

[root@probd01:/root/mytest]#hadoop fs -rm /test/test1.txt

19/05/16 08:26:39 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 1440 minutes, Emptier interval = 0 minutes.

Moved: 'hdfs://probd/test/test1.txt' to trash at: hdfs://probd/user/root/.Trash/Current

[root@probd01:/root/mytest]#hadoop fs -ls /test

Found 1 items

-rw-r--r-- 3 root supergroup 12 2019-05-16 08:02 /test/test.txt

可以看到在原来的目录里面已经成功将文件移除,但是这里出现了一个提示信息,这里信息需要注意一下,在linux系统里,我们知道没有回收站的概念,所以rm -rf导致的结果是非常严重的。然而在hadoop或者说hdfs里面,有trash相关的概念,可以使得数据被误删以后,还可以找回来。从上面我们可以看到,删除的文件只是被移动到了"/user/root/.Trash/Current"中,我们进入里面看到底是不是存在:

[root@probd01:/root/mytest]#hadoop fs -ls /user/root/.Trash/Current

Found 1 items

drwx------ - root supergroup 0 2019-05-16 08:26 /user/root/.Trash/Current/test

[root@probd01:/root/mytest]#hadoop fs -ls /user/root/.Trash/Current/test

Found 1 items

-rw-r--r-- 3 root supergroup 11 2019-05-16 08:09 /user/root/.Trash/Current/test/test1.txt

是的,的确存在,而且保存的还是文件之前的整个路径,以便在恢复的时候能够回到原来的位置。

我们回过头看之前的提示信息,还有一个Deletion interval = 1440 minutes, Emptier interval = 0 minutes,这个是什么东西?

原来在hadoop里有一个trash选项设置,这个选项默认是关闭的。所以如果要生效,需要提前将trash选项打开。修改conf里的core-site.xml即可。我们集群的相关配置如下:

fs.trash.interval

1440

fs.trash.checkpoint.interval

1440

fs.trash.interval是在指在这个回收周期之内,文件实际上是被移动到trash的这个目录下面,而不是马上把数据删除掉。等到回收周期真正到了以后,hdfs才会将数据真正删除。默认的单位是分钟,1440分钟=60*24,刚好是一天。

fs.trash.checkpoint.interval则是指垃圾回收的检查间隔,应该是小于或者等于fs.trash.interval。

移动或重命名文件:hadoop fs -mv /目录/文件名 /目录

如果两个目录是相同的,则该命令为重命名文件,否则为移动。

重命名:

[root@probd01:/root/mytest]#hadoop fs -mv /test/test.txt /test/test2.txt

[root@probd01:/root/mytest]#hadoop fs -ls /test

Found 1 items

-rw-r--r-- 3 root supergroup 12 2019-05-16 08:02 /test/test2.txt

移动:

[root@probd01:/root/mytest]#hadoop fs -mv /test/test2.txt /demo

[root@probd01:/root/mytest]#hadoop fs -ls /demo

Found 1 items

-rw-r--r-- 3 root supergroup 12 2019-05-16 08:02 /demo/test2.txt

[root@probd01:/root/mytest]#hadoop fs -ls /test

[root@probd01:/root/mytest]#

查看文件内容:hadoop fs -cat 文件

[root@probd01:/root/mytest]#hadoop fs -cat /demo/test2.txt

hello HDFS

查阅帮助:hadoop fs -help 命令

[root@probd01:/root/mytest]#hadoop fs -help ls

-ls [-d] [-h] [-R] [ ...] :

List the contents that match the specified file pattern. If path is not

specified, the contents of /user/ will be listed. Directory entries

are of the form:

permissions - userId groupId sizeOfDirectory(in bytes)

modificationDate(yyyy-MM-dd HH:mm) directoryName

and file entries are of the form:

permissions numberOfReplicas userId groupId sizeOfFile(in bytes)

modificationDate(yyyy-MM-dd HH:mm) fileName

-d Directories are listed as plain files.

-h Formats the sizes of files in a human-readable fashion rather than a number

of bytes.

-R Recursively list the contents of directories.

删除文件夹:hadoop fs -rm -r /目录

[root@probd01:/root/mytest]#hadoop fs -rm -r /test

19/05/16 11:30:16 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 1440 minutes, Emptier interval = 0 minutes.

Moved: 'hdfs://probd/test' to trash at: hdfs://probd/user/root/.Trash/Current

还是和上面一样,删除的文件夹被移动到了/user/root/.Trash/Current中,以便以后需要的时候能够恢复。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值