Hadoop3.x的HDDFS的实际应用操作

一、hadoop3.x的shell操作

Shell的命令格式: hdfs dfs(或者hadoop fs)

1、浏览文件系统的文件

(1)hdfs dfs -ls  hdfs://hadoop1:9000/

也可以简化写法:

hdfs dfs -ls  /

因为在core-site.xml配置文件里面已经配置了和hdfs://hadoop1:9000/对应的信息如下:

    <property>

        <name>fs.default.name</name>

        <value>hdfs://hadoop1:9000</value>

        <description>change your own hostname</description>

    </property>

如果不写就找<name>fs.default.name</name>的默认值

这时候我们使用hdfs协议访问namenode的节点主机hadoop1,端口为9000,注意“/”不能丢,它表示根目录

(2)查看“/”下其它目录的指令,例如查看d1目录

hdfs dfs -ls  hdfs://hadoop1:9000/d1

如果d1下面还有d2,我们一级级查看麻烦可以使用递归操作,操作如下:

hdfs dfs -ls  -R hdfs://hadoop1:9000/d1

2、文件上传下载

(1)使用“-put 文件名”的格式将本地文件上传到hdfs服务器

例如:将/usr/local下文件file1上传到hdfs://hadoop1:9000/d1/

hdfs dfs -put  /usr/local/file1  hdfs://hadoop1:9000/d1/

(2)使用“-get  hdfs://主机名:9000/文件名”的格式将hdfs服务器文件下载到本地

例如:将hdfs://hadoop1:9000/下的文件file_tmp下载到/usr/local

hdfs dfs -get  hdfs://hadoop1:9000/file_tmp   /usr/local

3、查看文件内容

使用“-text”来查看文件内容,文件的单位是字节数

例如:查看hdfs://hadoop1:9000/下的file_tmp文件

hdfs dfs  -text  hdfs://hadoop1:9000/file_tmp

4、创建目录

使用“-mkdir”参数的命令可以创建目录,这里举个经常使用的递归创建目录

例如:在“/”下创建 d1,在d1下创建d2,在d2下创建d3

hdfs  dfs  -mkdir  /a/b/c

很多命令和linux类似,这里不再叙述

5、从本地剪切粘贴到 HDFS

示例:

hadoop fs -moveFromLocal  /home/d1   /d1

6、追加一个文件到已经存在的文件末尾

示例:

hadoop fs -appendToFile      f001.txt   /d1/file.txt

7、帮助命令help

例如下列可以查看命令的帮助信息:

hdfs dfs  -help

对于具体的命令帮助信息,可以如下方式查看,例如“cat”参数的命令信息:

hdfs dfs  -help  cat

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

数字化与智能化

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值