HDFS的Shell操作


学习目标

  • 熟悉HDFS Shell常用命令操作
  • 掌握Shell定时采集数据到HDFS

(一)HDFS的Shell介绍

  • Shell在计算机科学中俗称“壳”,是提供给使用者使用界面的进行与系统交互的软件,通过接收用户输入的命令执行相应的操作,Shell分为图形界面Shell和命令行式Shell。
  • 文件系统(FS)Shell包含了各种的类Shell的命令,可以直接与Hadoop分布式文件系统以及其他文件系统进行交互。

(二)了解HDFS常用Shell命令

1、三种Shell命令方式

在这里插入图片描述

2、FileSystem Shell文档

https://hadoop.apache.org/docs/r3.3.4/hadoop-project-dist/hadoop-common/FileSystemShell.html
在这里插入图片描述

  • 查看cat命令用法
    在这里插入图片描述

3、常用HDFS的shell命令

在这里插入图片描述
在这里插入图片描述

(三)HDFS常用命令操作实战

  • 启动Hadoop集群
    在这里插入图片描述

1、创建目录

  • 执行命令:hdfs dfs -mkdir /ied
    在这里插入图片描述
  • 利用Hadoop WebUI查看创建的目录
    在这里插入图片描述

2、创建多层目录

  • 执行命令:hdfs dfs -mkdir /luzhou/lzy,会报错,因为/luzhou目录不存在
    在这里插入图片描述
  • 当然,可以先创建/luzhou目录,然后在里面再创建lzy子目录,但是也可以一步到位,需要一个-p参数
  • 执行命令:hdfs dfs -mkdir -p /luzhou/lzy
    在这里插入图片描述
  • 利用Hadoop WebUI查看创建的多层目录
    在这里插入图片描述

3、查看目录

  • 执行命令:hdfs dfs -ls /,查看根目录(可以在任何节点上查看,结果都是一样的)
    在这里插入图片描述
    在这里插入图片描述
  • 执行命令:hdfs dfs -ls /luzhou
    在这里插入图片描述
  • 如果我们要查看根目录里全部的资源,那么要用到地柜参数-R(必须大写)
  • 执行命令:hdfs dfs -ls -R /,递归查看/目录(采用递归算法遍历树结构)
    在这里插入图片描述

4、上传本地文件到HDFS

  • 创建test.txt文件,执行命令:echo “hello hadoop world” > test.txt (>:重定向命令)
    在这里插入图片描述
  • 查看test.txt文件内容
    在这里插入图片描述
  • 上传test.txt文件到HDFS的/ied目录,执行命令:hdfs dfs -put test.txt /ied
    在这里插入图片描述
  • 查看是否上传成功
    在这里插入图片描述
  • 利用Hadoop WebUI界面查看
    在这里插入图片描述
    在这里插入图片描述

5、查看文件内容

  • 执行命令:hdfs dfs -cat /ied/test.txt

在这里插入图片描述

6、下载HDFS文件到本地

  • 先删除本地的test.txt文件
    在这里插入图片描述
  • 下载HDFS文件系统的/ied/test.txt到本地当前目录不改名,执行命令:hdfs dfs -get /ied/test.txt
    在这里插入图片描述
  • 检查是否下载成功
    在这里插入图片描述
  • 可以将HDFS上的文件下载到本地指定位置,并且可以更改文件名
  • 执行命令:hdfs dfs -get /ied/test.txt /home/exam.txt
    在这里插入图片描述
  • 检查是否下载成功
    在这里插入图片描述

7、删除HDFS文件

  • 执行命令:hdfs dfs -rm /ied/test.txt
    在这里插入图片描述
  • 检查是否删除成功
    在这里插入图片描述
  • 使用通配符,可以删除满足一定特征的文件
    在这里插入图片描述

8、删除HDFS目录

  • 执行命令:hdfs dfs -rmdir /luzhou
    在这里插入图片描述
  • 提示-rmdir命令删除不了非空目录。
  • 要递归删除才能删除非空目录:hdfs dfs -rm -r /luzhou(-r:recursive)
    在这里插入图片描述
  • 课堂练习:将/BigData变成一个空目录(删除里面的空子目录Class1和Class2以及文件test.txt)
    在这里插入图片描述
  • 此时,删除空目录/BigData
    在这里插入图片描述

9、移动目录或文件

  • -mv命令兼有移动与改名的双重功能
  • 将/ied目录更名为/ied01,执行命令:hdfs dfs -mv /ied /ied01
    在这里插入图片描述
  • 利用Hadoop WebUI查看是否更名成功
    在这里插入图片描述
  • 将/ied01/exam.txt更名为/ied/test.txt,执行命令:hdfs dfs -mv /ied01/exam.txt
    /ied01/test.txt
    在这里插入图片描述
    在这里插入图片描述

10、文件合并下载

  • 创建sport.txt、music.txt和book.txt并上传
    在这里插入图片描述
  • 在Hadoop WebUI界面查看上传的三个文件,注意文件名是按字典排序了的
    在这里插入图片描述
  • 合并/ied01目录的文件下载到本地当前目录的merger.txt,执行命令:hdfs dfs -getmerge /ied01/*
    merger.txt
    在这里插入图片描述
  • 下面,查看本地的merger.txt,看是不是三个文件合并后的内容
    在这里插入图片描述
  • 由此可见,merger.txt是book.txt、music.txt与sport.txt合并后的结果

11、检查文件信息

  • fsck: file system check —— 文件系统检查
  • 检查/ied01/book.txt文件,执行命令:hdfs fsck /ied01/book.txt -files -blocks locations -racks
    在这里插入图片描述
  • 我们知道HDFS里一个文件块是128MB,上传一个大于128MB的文件,hadoop-3.3.4.tar.gz大约663.24MB
  • 128 M B × 5 = 640 M B < 663.24 M B < 768 M B = 128 M B × 6 128
    MB\times 5 = 640MB \lt 663.24MB \lt 768MB = 128 MB\times
    6128MB×5=640MB<663.24MB<768MB=128MB×6
    ,HDFS会将hadoop-3.3.4.tar.gz分割成6块。
    在这里插入图片描述
  • 执行命令:hdfs dfs -put /opt/hadoop-3.3.4.tar.gz
    /ied01,将hadoop压缩包上传到HDFS的/ied01目录
    在这里插入图片描述
  • 查看HDFS上hadoop-3.3.4.tar.gz文件信息,执行命令:hdfs fsck
    /ied01/hadoop-3.3.4.tar.gz -files -locations -racks
    在这里插入图片描述
  • 利用Hadoop WebUI来查看文件块信息更加方便,总共有6个文件块:Block0、Block1、Block2、Block3、Block4、Block5
    在这里插入图片描述
  • 第1个文件块信息
    在这里插入图片描述
  • 第6个文件块信息
    在这里插入图片描述

12、创建时间戳文件

  • 在/ied01目录里创建一个文件sunshine.txt,执行命令:hdfs dfs -touchz /ied01/sunshine.txt
    在这里插入图片描述
  • 创建的是一个空文件,大小为0字节
    在这里插入图片描述
  • 这种空文件,一般用作标识文件,也可叫做时间戳文件,再次在/ied01目录下创建sunshine.txt同名文件
    在这里插入图片描述
  • 说明:如果touchz命令的路径指定的文件不存在,那就创建一个空文件;如果指定的文件存在,那就改变该文件的时间戳。

13、复制文件或目录

  • cp: copy - 拷贝或复制
  • 同名复制文件

将/ied01/music.txt复制到/ied02里,执行命令:hdfs dfs -cp /ied01/music.txt /ied02
在这里插入图片描述

  • 查看拷贝生成的文件
    在这里插入图片描述
    改名复制文件

  • 将/ied01/book.txt复制到/ied02目录,改名为read.txt,执行命令:hdfs dfs -cp /ied01/book.txt /ied02/read.txt
    在这里插入图片描述

  • 查看拷贝后的文件内容
    在这里插入图片描述

  • 源文件依然存在
    在这里插入图片描述
    复制目录

  • 将/ied01目录复制到/ied03目录,执行命令:hdfs dfs -cp /ied01 /ied03
    在这里插入图片描述

  • 查看拷贝后的/ied03目录,其内容跟/ied01完全相同
    在这里插入图片描述

14、查看文件大小

  • du: disk usage

  • 执行命令:hdfs dfs -du /ied01/book.txt
    在这里插入图片描述

15、上传文件

  • -copyFromLocal类似于-put,执行命令:hdfs dfs -copyFromLocal merger.txt /ied02
    在这里插入图片描述

  • 查看是否上传成功
    在这里插入图片描述

16、下载文件

  • -copyToLocal类似于-get,执行命令:hdfs dfs -copyToLocal /ied01/sunshine.txt sunlight.txt
    在这里插入图片描述

  • 查看是否下载成功
    在这里插入图片描述

17、查看某目录下文件个数

  • 执行命令:hdfs dfs -count /ied01
    在这里插入图片描述

18、检查hadoop本地库

  • 执行命令:hdfs checknative -a

在这里插入图片描述

  • 查看hadoop本地库文件
    在这里插入图片描述

19、进入和退出安全模式

  • 问题:哪些情况下HDFS会进入安全模式(只能读不能写)?
    (1)名称起点启动时,进入安全模式,直到fsimage用edits更新完毕才退出安全模式
    (2)当文件块的副本数量少于设置的副本数量,会进入安全模式,直到生成符合要求的副本数,才会退出安全模式。其实,也可以通过命令方式进入或退出安全模式。

执行命令:hdfs dfsadmin -safemode enter, 注意:进入安全模式之后,只能读不能写在这里插入图片描述

  • 此时,如果要创建目录,就会报错
    在这里插入图片描述
    退出安全模式

执行命令:hdfs dfsadmin -safemode leave
在这里插入图片描述

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值