Hadoop的Shell操作

Hadoop的Shell操作

在使用Hadoop的Shell命令前,我们需要启动Hadoop。执行如下命令:

cd /usr/local/hadoop
./sbin/start-all.sh #启动hadoop

Hadoop支持很多Shell命令,其中fs是HDFS最常用的命令,利用fs可以查看HDFS文件系统的目录结构、上传和下载数据、创建文件等。

实际上有三种shell命令方式:
1、hadoop fs:适用于任何不同的文件系统,比如本地文件系统和HDFS文件系统
2、hadoop dfs:只适用于HDFS文件系统
3、hdfs dfs:只适用于HDFS文件系统

我们可以在终端输入如下命令,查看fs总共支持了哪些命令:

./bin/hadoop fs

在终端输入如下命令,可以查看具体某个命令的作用。

例如:我们查看put命令如何使用,可以输入如下命令:

./bin/hadoop fs -help put

1、目录操作

1.1 创建用户目录

需要注意的是,Hadoop系统安装好以后,第一次使用HDFS时,需要首先在HDFS中创建用户目录。因此,需要在HDFS中为hadoop用户创建一个用户目录,命令如下:

cd /usr/local/hadoop
./bin/hdfs dfs -mkdir -p /user/hadoop

该命令中表示在HDFS中创建一个/user/hadoop目录:

  • –mkdir:创建目录的操作
  • -p:表示如果是多级目录,则父目录和子目录一起创建
  • /user/hadoop:一个多级目录,因此必须使用参数 -p,否则会出错。

/user/hadoop目录就成为hadoop用户对应的用户目录。

1.2 创建目录

下面,可以使用如下命令创建一个liang目录:

./bin/hdfs dfs -mkdir liang

在创建个liang目录时,采用了相对路径形式,实际上,这个liang目录创建成功以后,它在HDFS中的完整路是/user/hadoop/liang

如果要在HDFS的根目录下创建一个名称为liang的目录,则需要使用如下命令:

./bin/hdfs dfs -mkdir /liang

1.3 删除目录

可以使用rm命令删除一个目录,比如,可以使用如下命令删除刚才在HDFS中创建的/liang目录(不是/user/hadoop/liang目录):

./bin/hdfs dfs -rm -r /liang

上面命令中,-r参数表示如果删除/liang目录及其子目录下的所有内容,如果要删除的一个目录包含了子目录,则必须使用-r参数,否则会执行失败。

1.4 查看目录

可以使用如下命令显示HDFS中与当前用户hadoop对应的用户目录下的内容:

./bin/hdfs dfs -ls .
  • -ls:列出HDFS某个目录下的所有内容
  • .:HDFS中的当前用户目录,也就是/user/hadoop目录,因此,上面的命令和下面的命令是等价的:
./bin/hdfs dfs -ls /user/hadoop

如果要列出HDFS上的所有目录,可以使用如下命令:

./bin/hdfs dfs -ls

2、文件操作

2.1 上传文件

在实际应用中,经常需要从本地文件系统向HDFS中上传文件,或者把HDFS中的文件下载到本地文件系统中。
首先,使用vim编辑器,在本地Linux文件系统的/home/hadoop/目录下创建一个文件myLocalFile.txt,里面可以随意输入一些单词,比如,输入如下:

然后,可以使用如下命令把本地文件系统的/home/hadoop/myLocalFile.txt上传到HDFS中的当前用户目录的liang目录下,也就是上传到HDFS的/user/hadoop/liang/目录下:

./bin/hdfs dfs -put /home/hadoop/myLocalFile.txt  liang

可以使用ls命令查看一下文件是否成功上传到HDFS中,具体如下:

./bin/hdfs dfs -ls liang

该命令执行后会显示类似如下的信息:

Found 1 items
-rw-r--r--   1 hadoop supergroup         53 2022-10-04 20:42 liang/myLocalFile.txt

2.2 查看文件

下面使用如下命令查看HDFS中的myLocalFile.txt这个文件的内容:

./bin/hdfs dfs -cat liang/myLocalFile.txt

2.3 下载文件

下面把HDFS中的myLocalFile.txt文件下载到本地文件系统中的/home/hadoop/下载/这个目录下,命令如下:

./bin/hdfs dfs -get liang/myLocalFile.txt  /home/hadoop/下载

可以使用如下命令,到本地文件系统查看下载下来的文件myLocalFile.txt:

cd ~
cd 下载
ls
cat myLocalFile.txt

2.4 拷贝文件

最后,了解一下如何把文件从HDFS中的一个目录拷贝到HDFS中的另外一个目录。比如,如果要把HDFS的/user/hadoop/liang/myLocalFile.txt文件,拷贝到HDFS的另外一个目录/output中(注意,这个out目录位于HDFS根目录下),可以使用如下命令:

./bin/hdfs dfs -cp liang/myLocalFile.txt  /output

  • 4
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

_leoatliang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值