大数据从入门到实战-HDFS基本操作

本文介绍了如何在Linux环境中使用Hadoop HDFS进行文件系统操作,包括新建目录、上传文件、查看文件内容、移动与删除文件等基本操作。通过实例展示了如`hadoopfs-mkdir`、`hadoopfs-put`、`hadoopfs-ls`、`hadoopfs-mv`和`hadoopfs-rm`等常用命令的使用方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

HDFS的常用命令

接下来我们来了解一下一些常用的文件系统操作,例如:读取文件,新建目录,移动文件,删除数据,列出目录,等等。你可以在命令行中输入hadoop fs -help 命令读取每个命令的详细帮助文件。

现在请跟着我一起,在Linux环境下对Hadoop进行文件系统操作,来体验一下Hadoop的使用。

新建目录:

在本地和hadoop中分别创建文件夹:

本地创建目录:

root@evassh-12039904:~# mkdir /develop
root@evassh-12039904:~# mkdir /develop/input
root@evassh-12039904:~# mkdir /develop/output

hadoop创建目录:

root@evassh-12039904:~# start-dfs.sh

Starting namenodes on [localhost]
localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
localhost: starting namenode, logging to /usr/local/hadoop/logs/hadoop-root-namenode-evassh-12039904.out
localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
localhost: starting datanode, logging to /usr/local/hadoop/logs/hadoop-root-datanode-evassh-12039904.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: Warning: Permanently added '0.0.0.0' (ECDSA) to the list of known hosts.
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop/logs/hadoop-root-secondarynamenode-evassh-12039904.out


root@evassh-12039904:~# hadoop fs -mkdir /usr
root@evassh-12039904:~# hadoop fs -mkdir /usr/input
root@evassh-12039904:~# hadoop fs -mkdir /usr/output

上传文件至dfs:<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值